Une récente affirmation des chercheurs d’Anthropic – selon laquelle un groupe d’espionnage soutenu par l’État chinois aurait déployé un modèle d’intelligence artificielle (IA), en particulier son système Claude, pour automatiser une partie importante d’une campagne de cyberattaque – a suscité un débat au sein de la communauté de la cybersécurité. Même si le niveau exact d’autonomie reste contesté, les experts s’accordent largement sur le fait que cet incident signale un changement dangereux dans la cyberguerre : l’abaissement des barrières à l’entrée pour les attaques sophistiquées.
L’attaque présumée et les conclusions d’Anthropic
Anthropic rapporte que le groupe a utilisé Claude pour automatiser environ 80 à 90 % d’un effort de reconnaissance et d’exploitation ciblant 30 organisations des secteurs de la technologie, de la finance et du gouvernement. L’IA aurait été chargée de l’analyse des vulnérabilités, de la génération d’exploits, de la collecte d’informations d’identification et de l’exfiltration de données, les opérateurs humains n’intervenant que pour des décisions de haut niveau. Les attaquants auraient contourné les protocoles de sécurité en décomposant les objectifs malveillants en tâches plus petites et apparemment inoffensives – une technique appelée « décomposition des tâches ».
Les ingénieurs d’Anthropic ont perturbé l’opération grâce à des systèmes de surveillance internes, notant que le modèle produisait des erreurs (telles que des informations d’identification hallucinées) nécessitant une correction humaine. Cet incident est présenté comme une démonstration « unique en son genre » d’espionnage orchestré par l’IA.
Désaccord sur les niveaux d’autonomie
Cependant, l’affirmation d’une automatisation quasi totale est débattue. Certains experts, comme Mike Wilkes de Columbia et de NYU, affirment que même si l’aspect orchestration est nouveau, les attaques elles-mêmes sont relativement simples. Son argument est qu’il s’agit d’une démonstration « bonjour tout le monde » d’attaques basées sur l’IA, et non d’un bond révolutionnaire dans les cybercapacités.
Seun Ajao, maître de conférences à la Manchester Metropolitan University, suggère que les groupes soutenus par l’État utilisent depuis longtemps l’automatisation dans leurs flux de travail et que les LLM peuvent déjà générer des scripts et analyser l’infrastructure. Il estime que le chiffre de 90 % est probablement surestimé, notant que la décomposition des tâches et la nécessité d’une correction humaine correspondent aux cyber-pratiques existantes.
Katerina Mitrokotsa, professeur de cybersécurité à l’Université de Saint-Gall, partage cet avis, décrivant l’incident comme un « modèle hybride » dans lequel l’IA agit comme un moteur d’orchestration sous la direction humaine. Elle fait valoir que contourner les restrictions de sécurité en encadrant les tâches malveillantes comme des tests d’intrusion légitimes suggère une autonomie moins complète que ne le suggère Anthropic.
Pourquoi c’est important : le changement dans la cyberguerre
La principale préoccupation n’est pas nécessairement de savoir si l’IA faisait 50 % ou 90 % du travail. La véritable menace réside dans la réduction des besoins en compétences et en ressources pour lancer des cyberattaques sophistiquées. Même une orchestration partielle basée sur l’IA rend les campagnes plus évolutives et obscurcit la responsabilité lorsqu’un LLM devient l’élément central d’une intrusion.
Si les adversaires peuvent exploiter les outils d’IA destinés aux consommateurs pour accélérer la reconnaissance, réduire le temps entre l’analyse et l’exploitation et répéter les attaques plus rapidement que les défenseurs ne peuvent répondre, les implications sont profondes. De plus, la disponibilité d’outils d’IA prêts à l’emploi réduit les barrières à l’entrée des groupes de cyberespionnage.
Le paysage futur : les opérations hybrides
Le scénario le plus probable est qu’il ne s’agissait pas d’une attaque entièrement autonome mais plutôt d’une opération menée par des humains et amplifiée par l’IA. Les experts prévoient que les adversaires traiteront de plus en plus l’IA comme une couche d’orchestration, rassemblant des tâches de reconnaissance, rédigeant des exploits et générant du code à grande échelle. Les défenseurs devraient s’attendre à davantage d’opérations hybrides dans lesquelles les LLM multiplient les capacités humaines au lieu de les remplacer entièrement.
Cet incident sert d’avertissement : même si cette campagne particulière a été détectée, les futures attaques utilisant l’IA pourraient s’avérer plus difficiles à bloquer. La question n’est pas de savoir si, mais quand, des campagnes similaires proliféreront, obligeant les défenseurs à s’adapter plus rapidement que jamais.
























