Agente de IA revelou elevada sofisticação técnica, comparável à dos participantes humanos mais capacitados que integraram o estudo em causa
Um agente de inteligência artificial (IA) superou a maioria dos piratas informáticos humanos depois de passar 16 horas a varrer a rede de uma universidade à procura de vulnerabilidades, conclui um novo estudo.
O estudo surge numa altura em que piratas informáticos da Rússia, Coreia do Norte, Irão e grupos apoiados pela China estão a usar grandes modelos de linguagem (LLM) para aperfeiçoar ciberataques, segundo a Microsoft e a OpenAI, este ano. Grupos militantes, como os pró-Estado Islâmico, estão também a experimentar a IA para lançar ataques.
A Universidade de Stanford constatou que o seu recém-desenvolvido agente de IA ARTEMIS ficou em segundo lugar, entre dez, num experimento com piratas informáticos humanos. Os investigadores disseram que o seu agente de IA "demonstrou sofisticação técnica", comparável à dos participantes humanos mais fortes no estudo.
Operar o agente de IA ARTEMIS custa apenas 18 dólares (cerca de 15 euros) por hora, contra os 60 dólares (52 euros) por hora de um "profissional de testes de intrusão", lê-se no relatório. O estudo ainda não foi publicado numa revista científica.
Agentes de IA, assistentes digitais totalmente automatizados capazes de executar tarefas sem supervisão humana, deverão ser usados por agentes maliciosos para agilizar e ampliar ataques em 2026, de acordo com um relatório da Google.
A Universidade de Stanford deu ao ARTEMIS, a seis agentes de IA de teste e a dez testadores humanos, acesso a todos os 8.000 dispositivos da rede da universidade, incluindo servidores, computadores e dispositivos inteligentes. Os investigadores compararam o desempenho do testador humano, do ARTEMIS de Stanford e dos outros seis agentes de IA, a quem foi pedido que varressem durante 16 horas, mas cujo desempenho foi avaliado apenas nas primeiras 10 horas.
Nesse período, o ARTEMIS descobriu nove vulnerabilidades no sistema da universidade e apresentou 82% das suas descobertas como relatórios válidos. O agente de IA ficou em segundo lugar na classificação e superou nove dos dez testadores humanos.
O que tornou o programa de IA tão bem-sucedido foi a capacidade de gerar "subagentes" sempre que surgia uma vulnerabilidade, para a investigar de imediato em segundo plano, enquanto continuava a procurar outras ameaças. Os humanos não conseguiam fazê-lo e tinham de investigar cada vulnerabilidade antes de avançar, refere o estudo.
Contudo, o estudo assinala que o ARTEMIS ainda deixou escapar algumas das vulnerabilidades identificadas por humanos e precisou de pistas antes de as encontrar.
Agentes de cibersegurança baseados em IA de empresas como o Codex, da OpenAI, e o Claude Code, da Anthropic, carecem de "competência em cibersegurança na sua conceção", concluiu o estudo.
Durante os testes, os agentes de IA das empresas estabelecidas ou recusavam procurar vulnerabilidades ou ficavam bloqueados.
Os modelos da OpenAI e da Anthropic apenas superaram dois dos agentes humanos, concluiu o estudo, o que sugere que estes modelos "ficam aquém".