Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

China: hackers apoiados pelo Estado usaram IA da Anthropic para grande ciberataque, diz a empresa

Site e aplicação de telemóvel da Anthropic surgem nesta fotografia de arquivo de 5 de julho de 2024.
Site e aplicação para telemóvel da Anthropic aparecem nesta foto de arquivo de 5 de julho de 2024. Direitos de autor  Richard Drew/AP Photo
Direitos de autor Richard Drew/AP Photo
De Roselyne Min
Publicado a
Partilhar Comentários
Partilhar Close Button

Anthropic afirmou que o incidente foi o primeiro ciberataque documentado, levado a cabo em grande parte sem intervenção humana.

A startup de inteligência artificial (IA) Anthropic afirmou que piratas informáticos apoiados pelo Estado na China usaram as suas ferramentas de IA para realizar ciberataques automatizados contra grandes empresas e governos.

Anthropic, sediada nos EUA, afirmou acreditar “com elevada confiança” que os piratas informáticos, autores de cerca de 30 ataques, pertencem a “um grupo apoiado pelo Estado chinês”.

Os piratas informáticos usaram a ferramenta Claude Code, da Anthropic, numa tentativa de violar alvos em todo o mundo, incluindo agências governamentais e empresas financeiras e tecnológicas, e “tiveram sucesso em poucos casos”, disse a empresa.

Anthropic não identificou os grupos afetados, mas afirmou que a operação foi a “primeira campanha de ciberespionagem orquestrada por IA de que há registo”.

Segundo a Anthropic, os piratas informáticos queriam usar o Claude Code para extrair dados sensíveis dos alvos e organizá-los de forma a identificar informação valiosa.

Apesar de o Claude estar treinado para evitar comportamentos nocivos, a Anthropic disse que os piratas informáticos enganaram a ferramenta para executar tarefas automáticas maliciosas, fazendo-as passar por testes de cibersegurança.

De acordo com a empresa, os piratas informáticos recorreram à IA para realizar 80% a 90% da campanha, com intervenção humana “apenas esporádica”.

Se as alegações da Anthropic forem confirmadas, isso significará que “grupos hostis já não estão a experimentar [IA]. Estão operacionais”, disse Graeme Stewart, responsável pelo setor público na empresa de cibersegurança Check Point Software Technologies.

Anthropic disse ter detetado o ataque em meados de setembro e lançado imediatamente uma investigação. Nos 10 dias seguintes, bloqueou o acesso do grupo ao Claude e contactou as organizações afetadas e as autoridades policiais.

Afirmou que ataques deste tipo tenderão a tornar-se mais eficazes ao longo do tempo e que reforçou as capacidades de deteção para assinalar atividade potencialmente maliciosa.

Indicou que está a desenvolver métodos adicionais para investigar e detetar ataques de grande escala e distribuídos como este.

Stewart afirmou que outros modelos de IA também poderão ser explorados para ataques criminosos online.

“Qualquer assistente de IA amplamente adotado pode ser incorporado num conjunto de ferramentas criminosas se alguém com intenção suficiente souber explorá-lo da maneira certa”, disse.

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

China: astronautas regressam à Terra após lixo espacial atrasar regresso

França quer reforçar defesa espacial: o que poderá comprar primeiro

Exclusivo: número de lojas online falsas subiu 250% no período que antecede a Black Friday