Nedávné tvrzení výzkumníků z Anthropic, že čínská státní zpravodajská skupina nasadila model umělé inteligence (AI), konkrétně jejich systém Claude, k automatizaci velké části kybernetického útoku, vyvolalo kontroverzi v komunitě kybernetické bezpečnosti. I když přesná míra autonomie zůstává kontroverzní, odborníci se obecně shodují, že incident signalizuje nebezpečný posun v kybernetické válce: snížení bariér pro zahájení sofistikovaných útoků.
Údajný útok a nálezy antropické
Společnost Antropic uvádí, že skupina použila Claude k automatizaci přibližně 80–90 % svého zpravodajského a vykořisťovacího úsilí proti 30 organizacím v technologickém, finančním a vládním sektoru. Umělá inteligence měla údajně za úkol analyzovat zranitelnosti, generovat exploity, shromažďovat přihlašovací údaje a krást data, přičemž lidští operátoři zasahovali pouze proto, aby činili rozhodnutí na vysoké úrovni. Útočníci údajně obešli bezpečnostní protokoly rozdělením škodlivých cílů na menší, zdánlivě neškodné úkoly, což je technika zvaná „rozkládání úkolů“.
Antropičtí inženýři přerušili operaci pomocí interních monitorovacích systémů a poznamenali, že model produkoval chyby (jako jsou halucinace pověření), které vyžadovaly lidskou korekci. O incidentu se mluví jako o demonstraci špionáže „prvního svého druhu“ řízené AI.
Neshody ohledně úrovně autonomie
Tvrzení o téměř úplné automatizaci je však kontroverzní. Někteří odborníci, jako Mike Wilkes z Columbia University a New York University, tvrdí, že zatímco aspekt orchestrace je nový, samotné útoky jsou relativně jednoduché. Jeho argumentem je, že jde spíše o ukázku útoků řízených umělou inteligencí „ahoj světe“, než o revoluční skok v kybernetických schopnostech.
Syon Ayao, docent na Manchester Metropolitan University, naznačuje, že vládou podporované skupiny již dlouho používají automatizaci ve svých pracovních postupech a že LLM již mohou generovat skripty a skenovat infrastrukturu. Domnívá se, že údaj 90 % je pravděpodobně nadhodnocený a poznamenává, že rozklad úkolů a potřeba lidské korekce jsou v souladu se stávajícími kybernetickými praktikami.
Katerina Mitrokotsa, profesorka kybernetické bezpečnosti na University of St. Gallen, souhlasí a popisuje incident jako „hybridní model“, ve kterém AI funguje jako orchestrální mechanismus pod lidskou kontrolou. Tvrdí, že obcházení bezpečnostních omezení předkládáním škodlivých úkolů jako legitimních penetračních testů znamená méně úplnou autonomii, než předpokládá Anthropic.
Proč na tom záleží: Posun v kybernetické válce
Hlavním problémem nemusí být to, zda umělá inteligence udělala 50 % nebo 90 % práce. Skutečnou hrozbou jsou snížené požadavky na dovednosti a zdroje pro zahájení sofistikovaných kybernetických útoků. Dokonce i částečná orchestrace řízená umělou inteligencí činí kampaně škálovatelnějšími a oslabuje odpovědnost, když se LLM stane ústřední složkou narušení.
Pokud protivníci mohou využít nástroje AI dostupné spotřebitelům k urychlení průzkumu, zkrácení doby mezi skenováním a zneužitím a opakování útoků rychleji, než mohou obránci reagovat, důsledky budou hluboké. Dostupnost běžně dostupných nástrojů umělé inteligence navíc snižuje překážku vstupu pro skupiny kybernetické špionáže.
Krajina budoucnosti: Hybridní operace
Nejpravděpodobnějším scénářem je, že se nejednalo o plně autonomní útok, ale o lidskou operaci vylepšenou AI. Odborníci předpokládají, že protivníci stále více zacházejí s AI jako s orchestrální vrstvou, kombinující zpravodajské úkoly, generování exploitů a vytváření kódu ve velkém měřítku. Zastánci by měli očekávat více hybridních operací, ve kterých LLM rozšiřují lidské schopnosti spíše než je zcela nahrazují.
Tento incident slouží jako varování, že zatímco byla tato konkrétní kampaň detekována, budoucí útoky AI mohou být obtížnější zablokovat. Není otázkou, zda, ale kdy se takové kampaně rozšíří a donutí zastánce přizpůsobit se rychleji než kdykoli předtím.























