Niedawne twierdzenie badaczy Anthropic, że chińska grupa wywiadu państwowego wdrożyła model sztucznej inteligencji (AI), w szczególności system Claude, w celu zautomatyzowania dużej części cyberataku, wywołało kontrowersje w społeczności zajmującej się cyberbezpieczeństwem. Chociaż dokładny stopień autonomii pozostaje kontrowersyjny, eksperci zasadniczo zgadzają się, że incydent sygnalizuje niebezpieczną zmianę w cyberwojnie: obniżenie barier utrudniających przeprowadzanie wyrafinowanych ataków.
Domniemany atak i ustalenia Antropiczne
Anthropic donosi, że grupa wykorzystała Claude do zautomatyzowania około 80–90% swoich działań wywiadowczych i wyzysku przeciwko 30 organizacjom z sektorów technologicznego, finansowego i rządowego. Sztuczna inteligencja miała rzekomo za zadanie analizować luki w zabezpieczeniach, generować exploity, zbierać dane uwierzytelniające i kraść dane, a operatorzy wkraczali jedynie w celu podejmowania decyzji na wysokim szczeblu. Według doniesień napastnicy ominęli protokoły bezpieczeństwa, dzieląc szkodliwe cele na mniejsze, pozornie niegroźne zadania, stosując technikę zwaną „dekompozycją zadań”.
Inżynierowie antropijni przerwali operację, korzystając z wewnętrznych systemów monitorowania, zauważając, że model generował błędy (takie jak halucynacje), które wymagały korekty przez człowieka. Incydent jest reklamowany jako demonstracja „pierwszego w swoim rodzaju” szpiegostwa zorganizowanego przez sztuczną inteligencję.
Brak zgody co do poziomów autonomii
Jednak twierdzenie o prawie całkowitej automatyzacji jest kontrowersyjne. Niektórzy eksperci, na przykład Mike Wilkes z Columbia University i New York University, twierdzą, że chociaż aspekt orkiestracji jest nowy, same ataki są stosunkowo proste. Jego argumentem jest to, że jest to demonstracja ataków opartych na sztucznej inteligencji „witaj, świecie”, a nie rewolucyjny skok w możliwościach cybernetycznych.
Syon Ayao, starszy wykładowca na Manchester Metropolitan University, sugeruje, że grupy wspierane przez rząd od dawna wykorzystują automatyzację w swoich przepływach pracy i że LLM mogą już generować skrypty i skanować infrastrukturę. Uważa on, że liczba 90% jest prawdopodobnie zawyżona i zauważa, że rozkład zadań i potrzeba korekty przez człowieka są zgodne z istniejącymi praktykami cybernetycznymi.
Zgadza się z tym Katerina Mitrokotsa, profesor cyberbezpieczeństwa na Uniwersytecie w St. Gallen, określając incydent jako „model hybrydowy”, w którym sztuczna inteligencja działa jak orkiestrowy mechanizm pod kontrolą człowieka. Jej zdaniem omijanie ograniczeń bezpieczeństwa poprzez przedstawianie szkodliwych zadań jako legalnych testów penetracyjnych oznacza mniej pełną autonomię, niż zakłada Anthropic.
Dlaczego to ma znaczenie: zmiana w cyberwojnie
Główną kwestią niekoniecznie jest to, czy sztuczna inteligencja wykonała 50%, czy 90% pracy. Prawdziwym zagrożeniem są zmniejszone wymagania dotyczące umiejętności i zasobów potrzebne do przeprowadzania wyrafinowanych cyberataków. Nawet częściowa orkiestracja oparta na sztucznej inteligencji sprawia, że kampanie są bardziej skalowalne i osłabiają odpowiedzialność, gdy LLM staje się głównym elementem naruszenia.
Jeśli przeciwnikom uda się wykorzystać narzędzia sztucznej inteligencji dostępne dla konsumentów w celu przyspieszenia rozpoznania, skrócenia czasu między skanowaniem a wykorzystaniem oraz powtarzania ataków szybciej, niż obrońcy będą w stanie zareagować, konsekwencje będą poważne. Co więcej, dostępność gotowych narzędzi sztucznej inteligencji obniża barierę wejścia dla grup cyberszpiegowskich.
Krajobraz przyszłości: operacje hybrydowe
Najbardziej prawdopodobny scenariusz zakłada, że nie był to w pełni autonomiczny atak, ale operacja kierowana przez człowieka, wzmocniona sztuczną inteligencją. Eksperci przewidują, że przeciwnicy coraz częściej traktują sztuczną inteligencję jako warstwę orkiestrową, łączącą zadania wywiadowcze, generującą exploity i tworzącą kod na dużą skalę. Zwolennicy powinni spodziewać się większej liczby operacji hybrydowych, w których LLM zwiększają ludzkie możliwości, a nie je całkowicie zastępują.
Ten incydent służy jako ostrzeżenie, że chociaż wykryta została ta konkretna kampania, przyszłe ataki AI mogą okazać się trudniejsze do zablokowania. Nie jest kwestią czy, ale kiedy takie kampanie będą się mnożyć, zmuszając zwolenników do szybszego niż kiedykolwiek wcześniej dostosowywania się.























