Una afirmación reciente de investigadores de Anthropic (que un grupo de espionaje respaldado por el estado chino implementó un modelo de inteligencia artificial (IA), específicamente su sistema Claude, para automatizar una parte importante de una campaña de ciberataque) ha provocado un debate dentro de la comunidad de ciberseguridad. Si bien el nivel exacto de autonomía sigue siendo discutido, los expertos coinciden en general en que este incidente señala un cambio peligroso en la guerra cibernética: la reducción de las barreras de entrada para ataques sofisticados.

El presunto ataque y los hallazgos de Anthropic

Anthropic informa que el grupo utilizó a Claude para automatizar aproximadamente entre el 80% y el 90% de un esfuerzo de reconocimiento y explotación dirigido a 30 organizaciones de los sectores tecnológico, financiero y gubernamental. Supuestamente, la IA tenía la tarea de analizar vulnerabilidades, generar exploits, recolectar credenciales y extraer datos, y los operadores humanos intervenían solo para decisiones de alto nivel. Según se informa, los atacantes eludieron los protocolos de seguridad al dividir objetivos maliciosos en tareas más pequeñas y aparentemente benignas, una técnica llamada “descomposición de tareas”.

Los ingenieros de Anthropic interrumpieron la operación a través de sistemas de monitoreo internos, notando que el modelo producía errores (como credenciales alucinadas) que requerían corrección humana. Este incidente se presenta como una demostración “primera de su tipo” de espionaje orquestado por IA.

Desacuerdo sobre los niveles de autonomía

Sin embargo, se debate la afirmación de una automatización casi total. Algunos expertos, como Mike Wilkes de Columbia y NYU, sostienen que si bien el aspecto de la orquestación es novedoso, los ataques en sí son relativamente simples. Su punto es que esta es una demostración de “hola mundo” de ataques impulsados ​​por IA, no un salto revolucionario en las capacidades cibernéticas.

Seun Ajao, profesor titular de la Universidad Metropolitana de Manchester, sugiere que los grupos respaldados por el estado han utilizado durante mucho tiempo la automatización en sus flujos de trabajo y que los LLM ya pueden generar scripts y escanear infraestructura. Él cree que la cifra del 90% probablemente sea exagerada, y señala que la descomposición de tareas y la necesidad de corrección humana se alinean con las prácticas cibernéticas existentes.

Katerina Mitrokotsa, profesora de ciberseguridad en la Universidad de St. Gallen, está de acuerdo y describe el incidente como un “modelo híbrido” en el que la IA actúa como un motor de orquestación bajo dirección humana. Ella sostiene que eludir las restricciones de seguridad enmarcando tareas maliciosas como pruebas de penetración legítimas sugiere una autonomía menos completa de lo que sugiere Anthropic.

Por qué esto es importante: el cambio en la guerra cibernética

La principal preocupación no es necesariamente si la IA estaba haciendo el 50% o el 90% del trabajo. La verdadera amenaza es la reducción de los requisitos de habilidades y recursos para lanzar ataques cibernéticos sofisticados. Incluso la orquestación parcial impulsada por la IA hace que las campañas sean más escalables y oscurece la responsabilidad cuando un LLM se convierte en el componente central de una intrusión.

Si los adversarios pueden aprovechar las herramientas de inteligencia artificial orientadas al consumidor para acelerar el reconocimiento, comprimir el tiempo entre el escaneo y la explotación y repetir los ataques más rápido de lo que los defensores pueden responder, las implicaciones son profundas. Además, la disponibilidad de herramientas de inteligencia artificial disponibles en el mercado reduce la barrera de entrada para los grupos de ciberespionaje.

El panorama futuro: operaciones híbridas

El escenario más probable es que no se tratara de un ataque totalmente autónomo sino más bien de una operación dirigida por humanos y amplificada por IA. Los expertos anticipan que los adversarios tratarán cada vez más a la IA como una capa de orquestación, uniendo tareas de reconocimiento, redactando exploits y generando código a escala. Los defensores deberían esperar más operaciones híbridas en las que los LLM multipliquen las capacidades humanas en lugar de reemplazarlas por completo.

El incidente sirve como advertencia: si bien se detectó esta campaña en particular, futuros ataques que aprovechen la IA pueden resultar más difíciles de bloquear. La pregunta no es si, sino cuándo, proliferarán campañas similares, lo que obligará a los defensores a adaptarse más rápido que nunca.