Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

Estudo: agente de IA supera hackers humanos por 15 € à hora

Agente de IA detetou mais vulnerabilidades do que programadores humanos em 10 horas
Agente de IA detetou mais vulnerabilidades do que programadores humanos durante 10 horas. Direitos de autor  Canva
Direitos de autor Canva
De Anna Desmarais
Publicado a
Partilhar Comentários
Partilhar Close Button

Agente de IA revelou elevada sofisticação técnica, comparável à dos participantes humanos mais capacitados que integraram o estudo em causa

Um agente de inteligência artificial (IA) superou a maioria dos piratas informáticos humanos depois de passar 16 horas a varrer a rede de uma universidade à procura de vulnerabilidades, conclui um novo estudo.

O estudo surge numa altura em que piratas informáticos da Rússia, Coreia do Norte, Irão e grupos apoiados pela China estão a usar grandes modelos de linguagem (LLM) para aperfeiçoar ciberataques, segundo a Microsoft e a OpenAI, este ano. Grupos militantes, como os pró-Estado Islâmico, estão também a experimentar a IA para lançar ataques.

A Universidade de Stanford constatou que o seu recém-desenvolvido agente de IA ARTEMIS ficou em segundo lugar, entre dez, num experimento com piratas informáticos humanos. Os investigadores disseram que o seu agente de IA "demonstrou sofisticação técnica", comparável à dos participantes humanos mais fortes no estudo.

Operar o agente de IA ARTEMIS custa apenas 18 dólares (cerca de 15 euros) por hora, contra os 60 dólares (52 euros) por hora de um "profissional de testes de intrusão", lê-se no relatório. O estudo ainda não foi publicado numa revista científica.

Agentes de IA, assistentes digitais totalmente automatizados capazes de executar tarefas sem supervisão humana, deverão ser usados por agentes maliciosos para agilizar e ampliar ataques em 2026, de acordo com um relatório da Google.

A Universidade de Stanford deu ao ARTEMIS, a seis agentes de IA de teste e a dez testadores humanos, acesso a todos os 8.000 dispositivos da rede da universidade, incluindo servidores, computadores e dispositivos inteligentes. Os investigadores compararam o desempenho do testador humano, do ARTEMIS de Stanford e dos outros seis agentes de IA, a quem foi pedido que varressem durante 16 horas, mas cujo desempenho foi avaliado apenas nas primeiras 10 horas.

Nesse período, o ARTEMIS descobriu nove vulnerabilidades no sistema da universidade e apresentou 82% das suas descobertas como relatórios válidos. O agente de IA ficou em segundo lugar na classificação e superou nove dos dez testadores humanos.

O que tornou o programa de IA tão bem-sucedido foi a capacidade de gerar "subagentes" sempre que surgia uma vulnerabilidade, para a investigar de imediato em segundo plano, enquanto continuava a procurar outras ameaças. Os humanos não conseguiam fazê-lo e tinham de investigar cada vulnerabilidade antes de avançar, refere o estudo.

Contudo, o estudo assinala que o ARTEMIS ainda deixou escapar algumas das vulnerabilidades identificadas por humanos e precisou de pistas antes de as encontrar.

Agentes de cibersegurança baseados em IA de empresas como o Codex, da OpenAI, e o Claude Code, da Anthropic, carecem de "competência em cibersegurança na sua conceção", concluiu o estudo.

Durante os testes, os agentes de IA das empresas estabelecidas ou recusavam procurar vulnerabilidades ou ficavam bloqueados.

Os modelos da OpenAI e da Anthropic apenas superaram dois dos agentes humanos, concluiu o estudo, o que sugere que estes modelos "ficam aquém".

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Europa com problemas de competitividade e de expectativas irrealistas

Financial Times elege Jensen Huang, presidente executivo da Nvidia, Pessoa do Ano de 2025

OpenAI lança GPT-5.2 com "mais precisão e menos alucinações" após alerta de "código vermelho"