Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

EUA: Anthropic processa Departamento de Defesa por rótulo de risco na cadeia de abastecimento

Páginas do site da Anthropic e logótipos da empresa surgem num ecrã de computador em Nova Iorque, quinta-feira, 26 de fevereiro de 2026.
Páginas do site da Anthropic e logótipos da empresa são mostrados num ecrã de computador em Nova Iorque, quinta-feira, 26 de fevereiro de 2026 Direitos de autor  AP Photo/Patrick Sison
Direitos de autor AP Photo/Patrick Sison
De Pascale Davies com AP
Publicado a
Partilhar Comentários
Partilhar Close Button

O Pentágono classificou a Anthropic, na semana passada, como risco para a cadeia de abastecimento, obrigando as empresas a deixar de usar o Claude no Departamento de Defesa

A Anthropic processou o Departamento de Defesa dos EUA em tribunal na segunda-feira, depois de a agência a ter classificado como risco para a cadeia de abastecimento na semana passada.

PUBLICIDADE
PUBLICIDADE

A queixa judicial surge após um conflito entre a Anthropic e o Departamento de Defesa sobre se os militares devem ter acesso irrestrito aos sistemas de IA da empresa.

O Pentágono sancionou a criadora do Claude na semana passada, considerando-a um risco para a cadeia de abastecimento, o que obriga as empresas a deixarem de usar o Claude em casos diretamente ligados ao departamento.

O Presidente Donald Trump afirmou também que iria ordenar às agências federais que deixassem de utilizar o Claude, embora tenha dado ao Pentágono seis meses para retirar gradualmente um produto profundamente integrado em sistemas militares classificados, incluindo os usados na guerra no Irão.

“Não consideramos que esta decisão tenha fundamento legal e não vemos alternativa senão contestá-la em tribunal”, escreveu o presidente-executivo da Anthropic, Dario Amodei, num texto publicado no blogue da empresa na quinta-feira.

O processo pede que um juiz reverta o “rótulo de risco para a cadeia de abastecimento” e impeça as agências federais de o aplicarem.

“A Constituição não permite que o governo use o seu enorme poder para punir uma empresa pela sua expressão protegida”, afirma a Anthropic na queixa. “A Anthropic recorre ao poder judicial como último recurso para fazer valer os seus direitos e travar a campanha de retaliação ilegal do Executivo.”

O Departamento de Defesa recusou comentar na segunda-feira, invocando uma política de não comentar casos em litígio, noticiou a AP.

A Anthropic afirmou que procurou impedir que a sua tecnologia fosse usada em duas áreas de alto nível: vigilância massiva de norte-americanos e armas totalmente autónomas.

O secretário da Defesa, Pete Hegseth, e outros responsáveis insistiram publicamente que a empresa tem de aceitar “todos os usos legais” do Claude e ameaçaram-na com sanções caso a Anthropic não cumpra.

A Anthropic desenvolve o chatbot Claude e é a última entre as empresas rivais a não fornecer a sua tecnologia para uma nova rede interna das forças armadas norte-americanas.

A Anthropic obteve em julho passado um contrato de 200 milhões de dólares (167 milhões de euros) com o Departamento de Defesa dos EUA para “desenvolver protótipos de capacidades avançadas de IA que reforcem a segurança nacional dos Estados Unidos”, indicou a empresa.

A empresa assinou uma(fonte em inglês)target="_blank" rel="noopener noreferrer nofollow" href="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/" tooltip="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/"> parceria com a Palantir Technologies em 2024 para integrar o Claude em software de informações dos EUA.

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Assistentes de IA da Dassault Systèmes redefinem design e fabrico industriais

Austrália impõe controlo de idade para chatbots de IA, jogos adultos e motores de busca

EUA: Anthropic processa Departamento de Defesa por rótulo de risco na cadeia de abastecimento