Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

Cibercriminosos testam IA e ficam desiludidos, conclui estudo

Cibercriminosos interessam-se pela IA, mas ainda não veem benefícios reais no seu trabalho, indica um novo estudo
Cibercriminosos mostram interesse na IA, mas ainda não veem benefícios reais no seu trabalho com esta tecnologia, indica um novo estudo Direitos de autor  Canva
Direitos de autor Canva
De Anna Desmarais
Publicado a
Partilhar Comentários
Partilhar Close Button

Nova investigação da Universidade de Edimburgo concluiu que os piratas informáticos tiveram pouco sucesso a usar ferramentas de IA, tanto diretamente nas burlas como na criação de ferramentas mais eficazes

Os cibercriminosos estão a ter dificuldades em integrar a inteligência artificial (IA) nas suas atividades, conclui uma nova análise.

PUBLICIDADE
PUBLICIDADE

Um novo estudo (fonte em inglês) em pré-publicação da Universidade de Edimburgo analisou mais de 100 milhões de mensagens em fóruns de cibercriminosos, recorrendo à base de dados CrimeBB, que recolhe informação de fóruns clandestinos.

Os dados foram analisados tanto manualmente como com recurso a um grande modelo de linguagem (LLM).

Embora os cibercriminosos manifestem interesse em aprender a usar ferramentas de IA, a tecnologia não alterou de forma significativa a sua forma de «trabalhar», conclui o estudo.

«Muitas das avaliações e discussões descrevem as ferramentas [de IA] como pouco úteis», lê-se no estudo.

Os investigadores não encontraram «nenhuma evidência significativa» de que os piratas informáticos tenham conseguido usar a IA para melhorar a sua atividade de intrusão, seja como apoio à aprendizagem, seja para desenvolver ferramentas mais sofisticadas.

Os assistentes de programação baseados em IA são sobretudo úteis para quem já domina bem código, pelo que os modelos que oferecem ajuda na escrita de software não lhes dão um «impulso» significativo quando tentam invadir dispositivos ou encontrar formas de contornar mecanismos de segurança, acrescenta o estudo.

«Primeiro tens de aprender sozinho o básico da programação antes de poderes usar a IA e REALMENTE tirar proveito dela», lê-se numa das mensagens citadas no estudo.

Até agora, o principal impacto da IA nas atividades ilegais online verifica-se em áreas fáceis de automatizar, como a criação de bots para redes sociais, alguns esquemas de romance e fraudes ligadas à otimização para motores de busca (SEO), ou a criação de sites falsos que sobem nos resultados de pesquisa para gerar receitas publicitárias.

Os comentários sugerem que mesmo os piratas informáticos mais experientes recorrem a chatbots para esclarecer dúvidas de programação ou criar «cábulas» que os ajudem a programar.

A IA efetivamente utilizada insere-se sobretudo em «produtos legítimos e generalistas», como o Claude, da Anthropic, ou o Codex, da OpenAI, e não tanto em modelos específicos para cibercrime, como o WormGPT, concebido por hackers para gerar código malicioso ou emails de phishing.

Muitas das mensagens analisadas são de cibercriminosos à procura de técnicas para contornar as regras de segurança desses modelos generalistas, mas parece ser-lhes difícil levar os sistemas de IA a ignorar as salvaguardas.

Perante isso, veem-se obrigados a recorrer a modelos de IA de código aberto mais antigos e de menor qualidade, que são mais fáceis de contornar. Estes revelam-se menos úteis e «exigem recursos significativos», concluíram os investigadores.

O estudo sugere que as barreiras de proteção impostas pelas empresas de IA estão a funcionar, pelo menos para já.

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Europe Today: NATO em turbulência, que futuro para a segurança europeia e laços transatlânticos

Crianças desenham bigodes no rosto para enganar verificações de idade online e resulta

Cibercriminosos testam IA e ficam desiludidos, conclui estudo