Una recente affermazione dei ricercatori di Anthropic – secondo cui un gruppo di spionaggio cinese sostenuto dallo stato ha implementato un modello di intelligenza artificiale (AI), in particolare il loro sistema Claude, per automatizzare una parte significativa di una campagna di attacchi informatici – ha acceso il dibattito all’interno della comunità della sicurezza informatica. Anche se l’esatto livello di autonomia rimane controverso, gli esperti concordano ampiamente sul fatto che questo incidente segnala un pericoloso cambiamento nella guerra informatica: l’abbassamento delle barriere all’ingresso per attacchi sofisticati.

Il presunto attacco e le conclusioni di Anthropic

Anthropic riferisce che il gruppo ha utilizzato Claude per automatizzare circa l’80-90% di uno sforzo di ricognizione e sfruttamento rivolto a 30 organizzazioni nei settori tecnologico, finanziario e governativo. L’IA avrebbe avuto il compito di analizzare le vulnerabilità, generare exploit, raccogliere credenziali ed esfiltrare dati, con operatori umani che intervenivano solo per decisioni di alto livello. Secondo quanto riferito, gli aggressori hanno aggirato i protocolli di sicurezza suddividendo gli obiettivi dannosi in attività più piccole e apparentemente benigne, una tecnica chiamata “scomposizione delle attività”.

Gli ingegneri antropici hanno interrotto l’operazione attraverso sistemi di monitoraggio interni, notando che il modello produceva errori (come credenziali allucinatorie) che richiedevano una correzione umana. Questo incidente viene descritto come una dimostrazione “prima nel suo genere” di spionaggio orchestrato dall’intelligenza artificiale.

Disaccordo sui livelli di autonomia

Tuttavia, l’affermazione di un’automazione quasi totale è dibattuta. Alcuni esperti, come Mike Wilkes della Columbia e della New York University, sostengono che, sebbene l’aspetto dell’orchestrazione sia nuovo, gli attacchi stessi sono relativamente semplici. Il suo punto è che questa è una dimostrazione “ciao mondo” di attacchi guidati dall’intelligenza artificiale, non un salto rivoluzionario nelle capacità informatiche.

Seun Ajao, docente senior presso la Manchester Metropolitan University, suggerisce che i gruppi sostenuti dallo stato utilizzano da tempo l’automazione nei loro flussi di lavoro e che i LLM possono già generare script e scansionare l’infrastruttura. Ritiene che la cifra del 90% sia probabilmente sopravvalutata, sottolineando che la scomposizione dei compiti e la necessità di correzione umana sono in linea con le pratiche informatiche esistenti.

Katerina Mitrokotsa, professoressa di sicurezza informatica all’Università di San Gallo, è d’accordo, descrivendo l’incidente come un “modello ibrido” in cui l’intelligenza artificiale funge da motore di orchestrazione sotto la direzione umana. Sostiene che aggirare le restrizioni di sicurezza inquadrando attività dannose come test di penetrazione legittimi suggerisce un’autonomia meno completa di quanto suggerisce Anthropic.

Perché è importante: il cambiamento nella guerra informatica

La preoccupazione principale non è necessariamente se l’intelligenza artificiale stesse svolgendo il 50% o il 90% del lavoro. La vera minaccia è la ridotta richiesta di competenze e risorse per lanciare attacchi informatici sofisticati. Anche l’orchestrazione parziale basata sull’intelligenza artificiale rende le campagne più scalabili e oscura la responsabilità quando un LLM diventa la componente centrale di un’intrusione.

Se gli avversari riescono a sfruttare gli strumenti di intelligenza artificiale rivolti ai consumatori per accelerare la ricognizione, comprimere il tempo che intercorre tra la scansione e lo sfruttamento e ripetere gli attacchi più velocemente di quanto i difensori possano rispondere, le implicazioni sono profonde. Inoltre, la disponibilità di strumenti di intelligenza artificiale standardizzati riduce la barriera all’ingresso per i gruppi di spionaggio informatico.

Il panorama futuro: operazioni ibride

Lo scenario più probabile è che non si sia trattato di un attacco completamente autonomo, ma piuttosto di un’operazione guidata dall’uomo amplificata dall’intelligenza artificiale. Gli esperti prevedono che gli avversari tratteranno sempre più l’intelligenza artificiale come un livello di orchestrazione, unendo compiti di ricognizione, elaborando exploit e generando codice su larga scala. I difensori dovrebbero aspettarsi più operazioni ibride in cui gli LLM moltiplicano le capacità umane invece di sostituirle completamente.

L’incidente serve da avvertimento: sebbene questa particolare campagna sia stata rilevata, gli attacchi futuri che sfruttano l’intelligenza artificiale potrebbero rivelarsi più difficili da bloccare. La domanda non è se, ma quando, campagne simili prolifereranno, costringendo i difensori ad adattarsi più velocemente che mai.