A Anthropic afirmou que o seu modelo de inteligência artificial Mythos Preview ainda não está pronto para ser lançado ao público, devido às formas como cibercriminosos e espiões o poderão explorar.
A empresa de IA sediada nos Estados Unidos Anthropic anunciou esta semana um novo modelo de linguagem de uso geral que, afirma, é demasiado poderoso para ser disponibilizado publicamente.
A empresa afirmou na terça-feira (fonte em inglês) que a sua mais recente tecnologia, Mythos (oficialmente designada "Claude Mythos Preview"), não está pronta para um lançamento público por ser demasiado eficaz a detetar vulnerabilidades de elevada gravidade, ou potenciais fraquezas, nos principais sistemas operativos e navegadores web. Tal poderia levá-la a ser usada de forma abusiva por cibercriminosos e espiões.
Uma fuga de dados em março revelou pela primeira vez que a Anthropic estava a trabalhar na Mythos Preview, que na altura descreveu como algo que "coloca riscos de cibersegurança sem precedentes". Estas revelações fizeram cair as ações do setor da cibersegurança, já que a força desta tecnologia pode fazer dela o sonho de qualquer pirata informático.
Entretanto, novas evidências que reforçam estas preocupações levaram a empresa a suspender o lançamento público da tecnologia.
"O grande aumento de capacidades do Claude Mythos Preview levou-nos a decidir não o disponibilizar de forma generalizada", escreveu a Anthropic na ficha do sistema desta versão de pré-visualização, publicada na terça-feira.
"Em vez disso, estamos a utilizá-lo num programa de cibersegurança defensiva com um conjunto limitado de parceiros."
Quão poderoso é o Mythos?
A empresa detalhou várias conclusões preocupantes sobre o novo modelo, incluindo a forma como este conseguiu seguir instruções que o levavam a escapar de uma sandbox virtual, ou seja, a contornar as restrições de segurança, de rede ou de sistema de ficheiros impostas ao modelo.
O pedido inicial desafiava o Mythos a encontrar uma forma de enviar uma mensagem caso conseguisse escapar. "O modelo teve êxito, demonstrando uma capacidade potencialmente perigosa para contornar as nossas salvaguardas", indicou a Anthropic, acrescentando que o modelo decidiu depois ir mais longe.
"Numa tentativa preocupante e não solicitada de demonstrar o seu sucesso, publicou pormenores sobre o exploit em vários sítios na internet de difícil acesso, mas tecnicamente públicos."
A Anthropic está a reter alguns detalhes sobre as vulnerabilidades de cibersegurança descobertas pelo Mythos, mas forneceu alguns exemplos. O modelo identificou falhas no núcleo do Linux (kernel), usado na maioria dos servidores em todo o mundo, e encadeou-as autonomamente de forma a permitir que um atacante assumisse o controlo total de qualquer máquina que executasse sistemas Linux.
Numa outra observação inquietante, o Mythos descobriu uma vulnerabilidade com 27 anos no sistema operativo de código aberto OpenBSD que pode permitir a piratas informáticos fazer bloquear qualquer máquina que o execute. O OpenBSD é amplamente utilizado em todo o mundo em funções específicas de elevada segurança e em infraestruturas críticas.
Quem terá acesso ao Mythos?
Face a estas conclusões, a Anthropic só disponibilizará a Mythos Preview a algumas das maiores empresas de cibersegurança e de software do mundo.
A própria Anthropic, bem como outras 11 organizações (Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, a Linux Foundation, Microsoft, Nvidia e Palo Alto Networks) terão acesso ao modelo no âmbito de uma nova iniciativa da Anthropic denominada "Project Glasswing".
Este programa permitirá que as empresas utilizem a Mythos Preview no seu trabalho de segurança, e a Anthropic irá partilhar as principais conclusões do que for apurado.
A empresa batizou o projeto de cibersegurança com o nome da borboleta glasswing, dizendo tratar-se de uma metáfora para a forma como o Mythos encontrou vulnerabilidades que estavam à vista de todos e evitou causar danos ao ser transparente quanto aos riscos.
A Anthropic afirmou que o "objetivo final é permitir que os nossos utilizadores implementem em segurança modelos da classe Mythos em grande escala, para fins de cibersegurança, mas também para os inúmeros outros benefícios que modelos tão avançados poderão trazer".
"Para tal, temos também de avançar no desenvolvimento de salvaguardas de cibersegurança (e de outros tipos) que detetem e bloqueiem as saídas mais perigosas do modelo", escreveu a empresa no seu blogue.
Anthropic está em conversações com o governo dos EUA?
No mesmo texto, a Anthropic afirmou que mantém "discussões em curso" com responsáveis do governo dos Estados Unidos sobre o Claude Mythos Preview e as suas "capacidades cibernéticas ofensivas e defensivas".
"O surgimento destas capacidades cibernéticas é mais uma razão para que os Estados Unidos e os seus aliados mantenham uma vantagem decisiva na tecnologia de IA", sublinhou a empresa. A Anthropic escreveu que os governos têm um papel importante a desempenhar na manutenção dessa vantagem e na avaliação e mitigação dos riscos para a segurança nacional associados aos modelos de IA.
"Estamos prontos para trabalhar com representantes locais, estaduais e federais para ajudar nessas tarefas."
O anúncio surge numa altura em que a Anthropic e o Pentágono se encontram num impasse jurídico, depois de o Departamento de Defesa dos EUA ter classificado a empresa, em fevereiro, como um risco para a cadeia de fornecimento devido à recusa da Anthropic em permitir que a sua IA, o Claude, seja utilizada em armas autónomas e em vigilância em massa.
Outras ferramentas de IA têm as mesmas capacidades?
"Modelos mais poderosos vão surgir, nossos e de outros, e por isso precisamos de um plano para responder a esta realidade", afirmou o diretor executivo da Anthropic, Dario Amodei, num vídeo divulgado em paralelo com o anúncio do Mythos.
Poderá demorar entre seis e 18 meses até que outros concorrentes em IA lancem modelos semelhantes, estimou em declarações ao Axios Logan Graham, responsável pela equipa de red team de fronteira da Anthropic, que estuda as implicações dos modelos de IA de fronteira para a cibersegurança, biossegurança e sistemas autónomos.
"Para nós é muito claro que temos de falar publicamente sobre isto", salientou Graham. "O setor da segurança precisa de perceber que estas capacidades podem chegar em breve."