Eine aktuelle Behauptung von Anthropic-Forschern – dass eine staatlich unterstützte chinesische Spionagegruppe ein Modell der künstlichen Intelligenz (KI), insbesondere ihr Claude-System, eingesetzt hat, um einen erheblichen Teil einer Cyberangriffskampagne zu automatisieren – hat in der Cybersicherheits-Community eine Debatte ausgelöst. Während der genaue Grad der Autonomie weiterhin umstritten ist, sind sich Experten weitgehend einig, dass dieser Vorfall eine gefährliche Verschiebung in der Cyberkriegsführung signalisiert: die Senkung der Eintrittsbarrieren für raffinierte Angriffe.
Der angebliche Angriff und die Ergebnisse von Anthropic
Anthropic berichtet, dass die Gruppe Claude verwendet hat, um etwa 80–90 % einer Aufklärungs- und Ausbeutungsmaßnahme zu automatisieren, die auf 30 Organisationen aus den Bereichen Technologie, Finanzen und Regierung abzielte. Die KI wurde angeblich mit der Schwachstellenanalyse, der Generierung von Exploits, dem Sammeln von Anmeldeinformationen und der Datenexfiltration beauftragt, wobei menschliche Bediener nur bei Entscheidungen auf hoher Ebene eingriffen. Berichten zufolge umgingen die Angreifer Sicherheitsprotokolle, indem sie böswillige Ziele in kleinere, scheinbar harmlose Aufgaben zerlegten – eine Technik namens „Aufgabenzerlegung“.
Anthropic-Ingenieure störten den Betrieb durch interne Überwachungssysteme und stellten fest, dass das Modell Fehler verursachte (z. B. halluzinierte Anmeldeinformationen), die eine menschliche Korrektur erforderten. Dieser Vorfall wird als „erste Demonstration seiner Art“ von KI-gesteuerter Spionage dargestellt.
Uneinigkeit über Autonomieniveaus
Der Anspruch einer nahezu vollständigen Automatisierung ist jedoch umstritten. Einige Experten, wie Mike Wilkes von Columbia und NYU, argumentieren, dass der Orchestrierungsaspekt zwar neu ist, die Angriffe selbst jedoch relativ einfach. Sein Punkt ist, dass dies eine „Hallo Welt“-Demonstration von KI-gesteuerten Angriffen ist und kein revolutionärer Sprung in den Cyber-Fähigkeiten.
Seun Ajao, Dozent an der Manchester Metropolitan University, weist darauf hin, dass staatlich geförderte Gruppen schon seit langem auf Automatisierung in ihren Arbeitsabläufen setzen und dass LLMs bereits Skripte generieren und Infrastruktur scannen können. Er glaubt, dass die Zahl von 90 % wahrscheinlich überbewertet ist, und weist darauf hin, dass die Aufgabenzerlegung und die Notwendigkeit menschlicher Korrekturen mit bestehenden Cyber-Praktiken übereinstimmen.
Katerina Mitrokotsa, Professorin für Cybersicherheit an der Universität St. Gallen, stimmt dem zu und beschreibt den Vorfall als ein „Hybridmodell“, bei dem KI als Orchestrierungsmaschine unter menschlicher Leitung fungiert. Sie argumentiert, dass die Umgehung von Sicherheitsbeschränkungen durch die Einstufung bösartiger Aufgaben als legitime Penetrationstests auf eine geringere vollständige Autonomie hindeutet, als Anthropic vermuten lässt.
Warum das wichtig ist: Der Wandel in der Cyber-Kriegsführung
Das Hauptanliegen ist nicht unbedingt, ob die KI 50 % oder 90 % der Arbeit erledigt hat. Die eigentliche Bedrohung ist der geringere Qualifikations- und Ressourcenbedarf für die Durchführung raffinierter Cyberangriffe. Selbst eine teilweise KI-gesteuerte Orchestrierung macht Kampagnen skalierbarer und verschleiert die Verantwortlichkeit, wenn ein LLM zur zentralen Komponente eines Einbruchs wird.
Wenn Angreifer verbraucherorientierte KI-Tools nutzen können, um die Aufklärung zu beschleunigen, die Zeit zwischen Scan und Ausnutzung zu verkürzen und Angriffe schneller zu wiederholen, als Verteidiger reagieren können, sind die Auswirkungen tiefgreifend. Darüber hinaus senkt die Verfügbarkeit handelsüblicher KI-Tools die Eintrittsbarriere für Cyberspionagegruppen.
Die Zukunftslandschaft: Hybridbetrieb
Das wahrscheinlichste Szenario ist, dass es sich nicht um einen vollständig autonomen Angriff handelte, sondern um eine von Menschen geführte Operation, die durch KI verstärkt wurde. Experten gehen davon aus, dass Gegner KI zunehmend als Orchestrierungsebene betrachten, die Aufklärungsaufgaben zusammenfügt, Exploits entwirft und Code in großem Maßstab generiert. Verteidiger sollten mit mehr Hybridoperationen rechnen, bei denen LLMs die menschlichen Fähigkeiten vervielfachen, anstatt sie vollständig zu ersetzen.
Der Vorfall dient als Warnung: Obwohl diese spezielle Kampagne entdeckt wurde, könnten sich zukünftige Angriffe, die KI nutzen, als schwieriger zu blockieren erweisen. Die Frage ist nicht, ob, sondern wann sich ähnliche Kampagnen ausbreiten und die Verteidiger dazu zwingen, sich schneller als je zuvor anzupassen.
























