Impasse entre a tecnológica de IA Anthropic e o Pentágono dos EUA: saiba o essencial
O governo dos Estados Unidos ameaça pôr fim aos contratos militares com a empresa Anthropic, a menos que esta abra a sua tecnologia de IA a uma utilização militar sem restrições.
A Anthropic desenvolve o chatbot Claude e é a última entre as suas concorrentes que ainda não fornece a sua tecnologia a uma nova rede interna das forças armadas norte-americanas.
O diretor executivo, Dario Amodei, tem reiterado as suas preocupações éticas sobre o uso sem controlo da IA pelos governos, incluindo os perigos de drones armados totalmente autónomos e de vigilância em massa assistida por IA, capaz de controlar manifestações de dissidência.
Em julho passado, o Departamento de Defesa dos EUA atribuiu à Anthropic um contrato de 200 milhões de dólares (167 milhões de euros) para “desenvolver protótipos de capacidades de IA de ponta que reforcem a segurança nacional dos EUA”, afirmou a empresa. Em 2024, a Anthropic firmou uma parceria (fonte em inglês) com a Palantir Technologies para integrar o Claude no software de informações dos Estados Unidos.
O secretário da Defesa, Pete Hegseth, terá afirmado na terça-feira que iria rescindir o contrato de 200 milhões de dólares (167 milhões de euros) e classificar a empresa como um “risco para a cadeia de abastecimento” caso a Anthropic não cedesse.
Se a Anthropic for classificada como risco para a cadeia de abastecimento ao abrigo da legislação (fonte em inglês) norte-americana em matéria de contratação pública, o governo poderá excluí-la da atribuição de contratos, retirar os seus produtos da lista de opções e instruir os principais contratantes para não recorrerem a esse fornecedor.
Relatos sobre a reunião de Hegseth com Dario Amodei, diretor executivo e cofundador da Anthropic, referem também que Hegseth ameaçou aplicar à empresa a Defense Production Act (fonte em inglês), lei que confere ao Presidente dos EUA amplos poderes para ordenar a empresas privadas que priorizem as necessidades de segurança nacional, incluindo o acesso à sua tecnologia.
A Euronews Next contactou a Anthropic e o Departamento de Defesa dos EUA para confirmar as alegações, mas não obteve resposta imediata.
Anthropic recua em promessa central de segurança
Desde a sua fundação, a Anthropic tem-se apresentado como a mais responsável e focada na segurança entre as grandes empresas de IA, desde que os seus fundadores deixaram a OpenAI para criar a start-up em 2021.
Na terça-feira, a Anthropic afirmou, numa entrevista à revista Time, que iria abandonar o compromisso de segurança segundo o qual não lançaria um sistema de IA sem garantir previamente que as medidas de proteção eram adequadas.
Em alternativa, apresentou uma nova versão da sua política de expansão responsável, que define o enquadramento da empresa para mitigar riscos catastróficos associados à IA.
Jared Kaplan, diretor científico da Anthropic, disse à publicação que impedir a empresa de treinar novos modelos, enquanto os concorrentes avançam sem salvaguardas, não a ajudaria a manter-se na corrida da IA.
“Se um desenvolvedor de IA interrompesse o desenvolvimento para implementar medidas de segurança, enquanto outros prosseguissem o treino e a implementação de sistemas de IA sem fortes mecanismos de mitigação, isso poderia resultar num mundo menos seguro”, lê-se na nova política da Anthropic.
“Os desenvolvedores com proteções mais fracas definiriam o ritmo e os desenvolvedores responsáveis perderiam a capacidade de realizar investigação em segurança e de promover o interesse público.”
A política distingue as ambições da Anthropic de estabelecer normas de segurança no setor dos seus próprios objetivos enquanto empresa, em que a segurança continua a ser uma prioridade.
Segundo a empresa, a nova política implica traçar “planos de segurança ambiciosos mas exequíveis” para os seus modelos, bem como publicar relatórios de riscos que indiquem os perigos previstos e avaliem se o lançamento de um modelo se justifica.