Anthropic afirmou que o incidente foi o primeiro ciberataque documentado, levado a cabo em grande parte sem intervenção humana.
A startup de inteligência artificial (IA) Anthropic afirmou que piratas informáticos apoiados pelo Estado na China usaram as suas ferramentas de IA para realizar ciberataques automatizados contra grandes empresas e governos.
Anthropic, sediada nos EUA, afirmou acreditar “com elevada confiança” que os piratas informáticos, autores de cerca de 30 ataques, pertencem a “um grupo apoiado pelo Estado chinês”.
Os piratas informáticos usaram a ferramenta Claude Code, da Anthropic, numa tentativa de violar alvos em todo o mundo, incluindo agências governamentais e empresas financeiras e tecnológicas, e “tiveram sucesso em poucos casos”, disse a empresa.
Anthropic não identificou os grupos afetados, mas afirmou que a operação foi a “primeira campanha de ciberespionagem orquestrada por IA de que há registo”.
Segundo a Anthropic, os piratas informáticos queriam usar o Claude Code para extrair dados sensíveis dos alvos e organizá-los de forma a identificar informação valiosa.
Apesar de o Claude estar treinado para evitar comportamentos nocivos, a Anthropic disse que os piratas informáticos enganaram a ferramenta para executar tarefas automáticas maliciosas, fazendo-as passar por testes de cibersegurança.
De acordo com a empresa, os piratas informáticos recorreram à IA para realizar 80% a 90% da campanha, com intervenção humana “apenas esporádica”.
Se as alegações da Anthropic forem confirmadas, isso significará que “grupos hostis já não estão a experimentar [IA]. Estão operacionais”, disse Graeme Stewart, responsável pelo setor público na empresa de cibersegurança Check Point Software Technologies.
Anthropic disse ter detetado o ataque em meados de setembro e lançado imediatamente uma investigação. Nos 10 dias seguintes, bloqueou o acesso do grupo ao Claude e contactou as organizações afetadas e as autoridades policiais.
Afirmou que ataques deste tipo tenderão a tornar-se mais eficazes ao longo do tempo e que reforçou as capacidades de deteção para assinalar atividade potencialmente maliciosa.
Indicou que está a desenvolver métodos adicionais para investigar e detetar ataques de grande escala e distribuídos como este.
Stewart afirmou que outros modelos de IA também poderão ser explorados para ataques criminosos online.
“Qualquer assistente de IA amplamente adotado pode ser incorporado num conjunto de ferramentas criminosas se alguém com intenção suficiente souber explorá-lo da maneira certa”, disse.