Nova investigação da Universidade de Edimburgo concluiu que os piratas informáticos tiveram pouco sucesso a usar ferramentas de IA, tanto diretamente nas burlas como na criação de ferramentas mais eficazes
Os cibercriminosos estão a ter dificuldades em integrar a inteligência artificial (IA) nas suas atividades, conclui uma nova análise.
Um novo estudo (fonte em inglês) em pré-publicação da Universidade de Edimburgo analisou mais de 100 milhões de mensagens em fóruns de cibercriminosos, recorrendo à base de dados CrimeBB, que recolhe informação de fóruns clandestinos.
Os dados foram analisados tanto manualmente como com recurso a um grande modelo de linguagem (LLM).
Embora os cibercriminosos manifestem interesse em aprender a usar ferramentas de IA, a tecnologia não alterou de forma significativa a sua forma de «trabalhar», conclui o estudo.
«Muitas das avaliações e discussões descrevem as ferramentas [de IA] como pouco úteis», lê-se no estudo.
Os investigadores não encontraram «nenhuma evidência significativa» de que os piratas informáticos tenham conseguido usar a IA para melhorar a sua atividade de intrusão, seja como apoio à aprendizagem, seja para desenvolver ferramentas mais sofisticadas.
Os assistentes de programação baseados em IA são sobretudo úteis para quem já domina bem código, pelo que os modelos que oferecem ajuda na escrita de software não lhes dão um «impulso» significativo quando tentam invadir dispositivos ou encontrar formas de contornar mecanismos de segurança, acrescenta o estudo.
«Primeiro tens de aprender sozinho o básico da programação antes de poderes usar a IA e REALMENTE tirar proveito dela», lê-se numa das mensagens citadas no estudo.
Até agora, o principal impacto da IA nas atividades ilegais online verifica-se em áreas fáceis de automatizar, como a criação de bots para redes sociais, alguns esquemas de romance e fraudes ligadas à otimização para motores de busca (SEO), ou a criação de sites falsos que sobem nos resultados de pesquisa para gerar receitas publicitárias.
Os comentários sugerem que mesmo os piratas informáticos mais experientes recorrem a chatbots para esclarecer dúvidas de programação ou criar «cábulas» que os ajudem a programar.
A IA efetivamente utilizada insere-se sobretudo em «produtos legítimos e generalistas», como o Claude, da Anthropic, ou o Codex, da OpenAI, e não tanto em modelos específicos para cibercrime, como o WormGPT, concebido por hackers para gerar código malicioso ou emails de phishing.
Muitas das mensagens analisadas são de cibercriminosos à procura de técnicas para contornar as regras de segurança desses modelos generalistas, mas parece ser-lhes difícil levar os sistemas de IA a ignorar as salvaguardas.
Perante isso, veem-se obrigados a recorrer a modelos de IA de código aberto mais antigos e de menor qualidade, que são mais fáceis de contornar. Estes revelam-se menos úteis e «exigem recursos significativos», concluíram os investigadores.
O estudo sugere que as barreiras de proteção impostas pelas empresas de IA estão a funcionar, pelo menos para já.