Een recente bewering van Anthropic-onderzoekers – dat een door de Chinese staat gesteunde spionagegroep een kunstmatige intelligentie (AI)-model heeft ingezet, met name hun Claude-systeem, om een aanzienlijk deel van een cyberaanvalcampagne te automatiseren – heeft tot discussie binnen de cyberbeveiligingsgemeenschap geleid. Hoewel het exacte niveau van autonomie betwist blijft, zijn experts het er in grote lijnen over eens dat dit incident een gevaarlijke verschuiving in cyberoorlogvoering signaleert: het verlagen van de toegangsbarrières voor geavanceerde aanvallen.
De vermeende aanval en de bevindingen van Anthropic
Anthropic meldt dat de groep Claude gebruikte om ongeveer 80-90% van een verkennings- en exploitatie-inspanning te automatiseren, gericht op 30 organisaties in de technologie-, financiële en overheidssector. De AI zou zijn belast met de analyse van kwetsbaarheden, het genereren van exploits, het verzamelen van inloggegevens en het exfiltreren van gegevens, waarbij menselijke operators alleen tussenbeide kwamen voor beslissingen op hoog niveau. De aanvallers omzeilden naar verluidt de veiligheidsprotocollen door kwaadaardige doelen op te splitsen in kleinere, ogenschijnlijk goedaardige taken – een techniek die ‘taakdecompositie’ wordt genoemd.
Antropische ingenieurs verstoorden de operatie via interne monitoringsystemen en merkten op dat het model fouten produceerde (zoals gehallucineerde inloggegevens) die menselijke correctie vereisten. Dit incident wordt afgeschilderd als een ‘eerste in zijn soort’ demonstratie van door AI georkestreerde spionage.
Onenigheid over autonomieniveaus
Er wordt echter gedebatteerd over de claim van bijna totale automatisering. Sommige experts, zoals Mike Wilkes van Columbia en NYU, beweren dat hoewel het orkestratieaspect nieuw is, de aanvallen zelf relatief eenvoudig zijn. Zijn punt is dat dit een ‘hallo wereld’-demonstratie is van AI-gestuurde aanvallen, en niet een revolutionaire sprong in cybercapaciteiten.
Seun Ajao, hoofddocent aan de Manchester Metropolitan University, suggereert dat door de staat gesteunde groepen al lang automatisering in hun workflows gebruiken en dat LLM’s al scripts kunnen genereren en infrastructuur kunnen scannen. Hij is van mening dat het cijfer van 90% waarschijnlijk overdreven is, waarbij hij opmerkt dat taakdecompositie en de behoefte aan menselijke correctie aansluiten bij bestaande cyberpraktijken.
Katerina Mitrokotsa, hoogleraar cyberbeveiliging aan de Universiteit van St. Gallen, is het daarmee eens en beschrijft het incident als een ‘hybride model’ waarbij AI fungeert als een orkestratiemotor onder menselijke leiding. Ze stelt dat het omzeilen van veiligheidsbeperkingen door kwaadaardige taken in te kaderen als legitieme penetratietests minder volledige autonomie suggereert dan Anthropic suggereert.
Waarom dit ertoe doet: de verschuiving in cyberoorlogvoering
De kern van de zorg is niet noodzakelijkerwijs of de AI 50% of 90% van het werk deed. De echte dreiging is de verminderde vaardigheids- en middelenvereisten voor het lanceren van geavanceerde cyberaanvallen. Zelfs gedeeltelijke AI-gestuurde orkestratie maakt campagnes schaalbaarder en vertroebelt de verantwoordelijkheid wanneer een LLM het centrale onderdeel van een inbraak wordt.
Als tegenstanders gebruik kunnen maken van op consumenten gerichte AI-tools om de verkenning te versnellen, de tijd tussen scannen en exploiteren te verkorten en aanvallen sneller te herhalen dan verdedigers kunnen reageren, zijn de gevolgen diepgaand. Bovendien verlaagt de beschikbaarheid van kant-en-klare AI-tools de toetredingsdrempel voor cyberspionagegroepen.
Het toekomstige landschap: hybride operaties
Het meest waarschijnlijke scenario is dat dit geen volledig autonome aanval was, maar eerder een door mensen geleide operatie, versterkt door AI. Deskundigen verwachten dat tegenstanders AI steeds meer zullen beschouwen als een orkestratielaag, waarbij verkenningstaken aan elkaar worden gekoppeld, exploits worden opgesteld en code op schaal wordt gegenereerd. Verdedigers zouden meer hybride operaties moeten verwachten waarbij LLM’s de menselijke capaciteiten vermenigvuldigen in plaats van ze volledig te vervangen.
Het incident dient als waarschuwing: hoewel deze specifieke campagne werd gedetecteerd, kunnen toekomstige aanvallen met behulp van AI moeilijker te blokkeren blijken. De vraag is niet óf, maar wanneer soortgelijke campagnes zich zullen verspreiden, waardoor verdedigers zich sneller dan ooit zullen moeten aanpassen.























