Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

EUA e Anthropic em impasse sobre contrato militar de IA

ARQUIVO - Secretário da Defesa Pete Hegseth em frente ao Pentágono, durante cerimónia de boas-vindas ao ministro japonês da Defesa, Washington, 15 jan. 2026.
ARQUIVO - Secretário da Defesa Pete Hegseth junto ao Pentágono durante cerimónia de boas-vindas ao ministro da Defesa japonês, Washington, 15 jan. 2026. Direitos de autor  AP Photo/Kevin Wolf, File
Direitos de autor AP Photo/Kevin Wolf, File
De Anna Desmarais com AP
Publicado a Últimas notícias
Partilhar Comentários
Partilhar Close Button

Impasse entre a empresa de IA Anthropic e o Pentágono dos EUA: tudo o que precisa de saber

Governo dos Estados Unidos ameaça pôr fim aos contratos militares com a empresa Anthropic se esta não abrir a sua tecnologia de IA a uma utilização militar sem restrições, mas a tecnológica mantém a posição

PUBLICIDADE
PUBLICIDADE

O diretor executivo da Anthropic, Dario Amodei, afirmou num comunicado (fonte em inglês) em 26 de fevereiro que "não pode, em consciência, aceder ao pedido do Pentágono" para ter acesso irrestrito aos sistemas de IA da empresa.

"Num conjunto limitado de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos", escreveu. "Algumas utilizações estão também simplesmente fora do alcance do que a tecnologia atual pode fazer de forma segura e fiável."

O comunicado de Amodei surge a menos de 24 horas do prazo de sexta-feira fixado pelo Departamento de Guerra para obter acesso ilimitado ao Claude.

A Anthropic desenvolve o chatbot Claude e é a última entre as suas concorrentes a não fornecer a sua tecnologia a uma nova rede interna das forças armadas norte-americanas.

A Anthropic obteve em julho passado um contrato de 200 milhões de dólares (167 milhões de euros) do Departamento de Defesa dos EUA para "prototipar capacidades de IA de ponta que reforcem a segurança nacional norte-americana", afirmou a empresa. A companhia celebrou uma parceria (fonte em inglês) com a Palantir Technologies em 2024 para integrar o Claude no software dos serviços de informações do governo dos EUA.

O secretário da Defesa, Pete Hegseth, terá afirmado em 24 de fevereiro que iria pôr fim ao contrato de 200 milhões de dólares (167 milhões de euros) e classificar a empresa como "risco para a cadeia de fornecimento" se a Anthropic não cedesse.

Se a Anthropic for classificada como risco para a cadeia de fornecimento ao abrigo da lei (fonte em inglês) norte-americana de contratação pública, o governo poderá excluí-la da atribuição de contratos, retirar os seus produtos da lista de opções e instruir os principais contratantes a não recorrerem a esse fornecedor.

Relatos sobre a reunião de Hegseth com Amodei indicam também que o responsável ameaçou recorrer à Lei de Produção de Defesa (fonte em inglês) contra a empresa, legislação que confere ao Presidente dos EUA amplos poderes para ordenar a empresas privadas que priorizem necessidades de segurança nacional, incluindo o acesso à sua tecnologia.

No comunicado, Amodei defendeu que os contratos com o Departamento de Guerra não devem incluir casos em que o Claude seja utilizado para vigilância em massa dentro do país nem integrado em armas totalmente autónomas.

Segundo o responsável, são estas salvaguardas que, na sua opinião, motivam a ameaça do Departamento de retirar a Anthropic do uso pelas forças armadas norte-americanas.

Amodei considerou as duas ameaças "intrinsecamente contraditórias", porque uma classifica a Anthropic como risco para a segurança e a outra afirma que o Claude é "essencial para a segurança nacional".

Reconheceu que o Departamento de Guerra pode escolher com quem trabalha em contratos mais alinhados com a sua visão, mas sublinhou que, "tendo em conta o valor substancial que a tecnologia da Anthropic proporciona às nossas forças armadas, esperamos que reconsiderem".

O chatbot de IA já foi implementado nas redes de informação classificada do governo norte-americano, é utilizado em laboratórios nucleares nacionais e realiza diretamente análises de informação para o Departamento de Guerra.

A Euronews Next contactou o Departamento de Guerra do governo dos EUA, mas não obteve resposta imediata.

Anthropic recua na principal promessa de segurança

Desde que os fundadores abandonaram a OpenAI para criar a startup em 2021, a Anthropic tem-se apresentado como a mais responsável e focada na segurança entre as principais empresas de IA.

Na terça-feira, a Anthropic afirmou, numa entrevista à revista Time, que ia abandonar o compromisso de segurança de não lançar um sistema de IA sem garantir que as medidas de proteção eram adequadas.

Em alternativa, lançou uma nova versão da sua política de expansão responsável, que define o enquadramento da empresa para mitigar riscos catastróficos associados à IA.

Jared Kaplan, diretor científico da Anthropic, disse à publicação que impedir a empresa de treinar novos modelos enquanto os concorrentes avançam sem salvaguardas não a ajudaria a manter-se na corrida da IA.

"Se um ator na área da IA suspendesse o desenvolvimento para implementar medidas de segurança enquanto outros avançam com o treino e a implementação de sistemas de IA sem fortes mecanismos de mitigação, isso poderia resultar num mundo menos seguro", lê-se na nova política da Anthropic.

"Os agentes com as proteções mais fracas definiriam o ritmo e os intervenientes mais responsáveis perderiam a capacidade de fazer investigação em segurança e de promover o interesse público."

A política distingue as expectativas da Anthropic quanto à implementação de padrões de segurança no setor dos seus próprios objetivos enquanto empresa, nos quais a segurança continua a ser uma prioridade.

Segundo a Anthropic, a nova política implica que a empresa irá definir roteiros de segurança "ambiciosos mas exequíveis" para os seus modelos, bem como publicar relatórios de risco que indiquem os perigos antecipados e se o lançamento de um modelo se justifica.

Artigo atualizado em 27 de fevereiro.

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Galaxy S26 Ultra da Samsung aposta em IA e ecrã privado, mas chega para rivalizar?

Redes sociais criadas para viciar: será possível ultrapassar o algoritmo?

Chatbots de IA optaram por escalada nuclear em 95% dos jogos de guerra simulados