Security

KI-Agent hackt FreeBSD in 4 Stunden: Claude schreibt autonom zwei Kernel-Exploits

·Pandorex Redaktion·6 min Lesezeit
1473

Ein KI-Agent hat autonom eines der sichersten Betriebssysteme der Welt gehackt. Anthropics Claude entwickelte zwei funktionierende Remote-Root-Exploits für eine FreeBSD-Kernel-Schwachstelle in nur vier Stunden Rechenzeit. Ohne menschliche Hilfe.

Was passiert ist

Die Schwachstelle, registriert als CVE-2026-4747, ist eine Remote-Code-Execution-Lücke im FreeBSD-Kernel. Claude hat die Schwachstelle nicht einfach nur gefunden. Der KI-Agent analysierte den Kernel-Quellcode, identifizierte die Angriffsfläche, entwickelte Exploit-Code für zwei verschiedene Angriffsvektoren und testete sie bis sie funktionierten. Das Ergebnis: Remote Root Shell auf einem gehärteten FreeBSD-System.

Warum das anders ist

Security-Forscher nutzen KI seit Jahren für Vulnerability Scanning. Aber das hier ist qualitativ anders. Bisherige Tools fanden bekannte Muster. Claude hat originäre Sicherheitsforschung betrieben: unbekannten Code lesen, eine neuartige Schwachstelle identifizieren und funktionierenden Exploit-Code schreiben. Das ist die Arbeit eines erfahrenen Security-Researchers, komprimiert auf vier Stunden Compute.

Was das bedeutet

  • Offensive skaliert schneller als Defensive: Ein einzelner KI-Agent kann jetzt leisten, wofür bisher ein Team von Experten und Wochen Arbeit nötig waren. Die Ökonomie offensiver Cyber-Fähigkeiten hat sich fundamental verschoben.
  • Patch-Fenster schrumpfen auf null: Wenn eine KI in Stunden vom Advisory zum Exploit kommt, verschwindet das Zeitfenster zwischen Disclosure und aktiver Ausnutzung praktisch.
  • Attribution wird schwieriger: KI-generierte Exploits tragen nicht die stilistischen Fingerabdrücke, die helfen, Angriffe bestimmten Gruppen zuzuordnen.

Der grössere Kontext

FreeBSD ist kein Desktop-System. Es läuft auf Netflix-Servern, in Juniper-Netzwerkgeräten, in PlayStation-Konsolen und in kritischer Infrastruktur weltweit. Ein autonom entwickelter Kernel-Exploit für dieses System ist keine akademische Übung. Es ist eine Demonstration, dass KI-Agenten in der Lage sind, Sicherheitsforschung auf einem Niveau zu betreiben, das bisher Nationalstaaten und Elite-Hackergruppen vorbehalten war.

Die Frage ist nicht mehr ob KI-Agenten Schwachstellen autonom ausnutzen können. Die Frage ist, wie die Verteidigung damit Schritt halten soll.

Quellen: Forbes (01.04.2026), WinBuzzer, The Neuron AI Weekend Digest (04.-05.04.2026).

Kommentare

, um einen Kommentar zu schreiben.

Nach oben swipen
Nächster Artikel

Ransomware-Angriff auf Die Linke: Hackergruppe Qilin erbeutet Daten der Parteizentrale

Security