Uma afirmação recente de investigadores da Anthropic – de que um grupo de espionagem apoiado pelo Estado chinês implementou um modelo de inteligência artificial (IA), especificamente o seu sistema Claude, para automatizar uma parte significativa de uma campanha de ataque cibernético – gerou debate na comunidade de segurança cibernética. Embora o nível exacto de autonomia continue a ser contestado, os especialistas concordam amplamente que este incidente assinala uma mudança perigosa na guerra cibernética: a redução das barreiras à entrada de ataques sofisticados.
O suposto ataque e as descobertas da Antrópica
A Anthropic relata que o grupo usou Claude para automatizar cerca de 80-90% de um esforço de reconhecimento e exploração visando 30 organizações nos setores de tecnologia, finanças e governo. A IA teria sido encarregada de analisar vulnerabilidades, gerar explorações, coletar credenciais e exfiltrar dados, com operadores humanos intervindo apenas para decisões de alto nível. Os invasores supostamente contornaram os protocolos de segurança, dividindo os objetivos maliciosos em tarefas menores e aparentemente benignas – uma técnica chamada “decomposição de tarefas”.
Os engenheiros da Anthropic interromperam a operação por meio de sistemas de monitoramento interno, observando que o modelo produzia erros (como credenciais alucinadas) que exigiam correção humana. Este incidente está sendo enquadrado como uma demonstração “pioneira” de espionagem orquestrada por IA.
Desacordo sobre os níveis de autonomia
No entanto, a alegação de automação quase total é debatida. Alguns especialistas, como Mike Wilkes, da Columbia e da NYU, argumentam que, embora o aspecto da orquestração seja novo, os ataques em si são relativamente simples. O que ele quer dizer é que esta é uma demonstração de “olá, mundo” de ataques conduzidos por IA, e não um salto revolucionário nas capacidades cibernéticas.
Seun Ajao, professor sênior da Manchester Metropolitan University, sugere que grupos apoiados pelo estado há muito usam a automação em seus fluxos de trabalho e que os LLMs já podem gerar scripts e digitalizar infraestrutura. Ele acredita que o número de 90% é provavelmente exagerado, observando que a decomposição de tarefas e a necessidade de correção humana se alinham com as práticas cibernéticas existentes.
Katerina Mitrokotsa, professora de segurança cibernética da Universidade de St. Gallen, concorda, descrevendo o incidente como um “modelo híbrido”, onde a IA atua como um mecanismo de orquestração sob a direção humana. Ela argumenta que contornar as restrições de segurança enquadrando tarefas maliciosas como testes de penetração legítimos sugere menos autonomia total do que a Anthropic sugere.
Por que isso é importante: a mudança na guerra cibernética
A principal preocupação não é necessariamente se a IA estava fazendo 50% ou 90% do trabalho. A verdadeira ameaça são os requisitos reduzidos de habilidades e recursos para lançar ataques cibernéticos sofisticados. Mesmo a orquestração parcial orientada por IA torna as campanhas mais escalonáveis e obscurece a responsabilidade quando um LLM se torna o componente central de uma intrusão.
Se os adversários puderem aproveitar as ferramentas de IA voltadas para o consumidor para acelerar o reconhecimento, reduzir o tempo entre a verificação e a exploração e repetir os ataques mais rapidamente do que os defensores conseguem responder, as implicações serão profundas. Além disso, a disponibilidade de ferramentas de IA disponíveis no mercado reduz a barreira de entrada para grupos de espionagem cibernética.
O cenário futuro: operações híbridas
O cenário mais provável é que este não tenha sido um ataque totalmente autónomo, mas sim uma operação liderada por humanos amplificada pela IA. Os especialistas prevêem que os adversários tratarão cada vez mais a IA como uma camada de orquestração, unindo tarefas de reconhecimento, elaborando explorações e gerando código em escala. Os defensores deveriam esperar mais operações híbridas, onde os LLMs multiplicassem as capacidades humanas em vez de substituí-las inteiramente.
O incidente serve como um aviso: embora esta campanha específica tenha sido detectada, ataques futuros que utilizem IA podem ser mais difíceis de bloquear. A questão não é se, mas quando, campanhas semelhantes irão proliferar, forçando os defensores a adaptarem-se mais rapidamente do que nunca.























