A Anthropic vai recorrer, na terça-feira, a um tribunal federal de São Francisco para pedir uma injunção contra a decisão do governo dos EUA de a colocar na lista negra.
O confronto entre a Anthropic e o governo dos Estados Unidos deverá atingir um ponto crítico na terça-feira, quando a empresa de inteligência artificial defender, no tribunal federal, um pedido de providência cautelar contra o Departamento de Guerra e a Casa Branca.
A iniciativa surge depois do presidente dos Estados Unidos, Donald Trump, e o secretário da Defesa, Pete Hegseth, terem anunciado publicamente em fevereiro que iam cortar relações com a empresa de inteligência artificial (IA), depois desta se ter recusado a permitir o uso militar sem restrições do seu modelo Claude AI. As restrições em causa incluem o recurso a armas autónomas letais sem supervisão humana e a vigilância massiva de cidadãos norte-americanos.
Em resposta, o governo dos Estados Unidos classificou a Anthropic como um “risco para a segurança nacional na cadeia de abastecimento” e ordenou às agências federais que deixassem de utilizar o Claude.
O caso ilustra o cruzamento entre questões éticas, empresariais e legais relacionadas à IA avançada e questiona quem deve definir os limites desta tecnologia: as empresas tecnológicas, guiadas por princípios internos de segurança, ou as autoridades públicas, que atuam em nome da segurança nacional e de interesses geopolíticos?
A audiência terá lugar perante a juíza federal Rita Lin, em São Francisco. A magistrada antecipou a sessão, inicialmente marcada para 3 de abril.
Quais argumentos apresenta a Anthropic?
A Anthropic contesta a designação de “risco na cadeia de abastecimento”, com o cofundador e diretor-executivo, Dario Amodei, a afirmar que a empresa “não tem alternativa senão contestá-la em tribunal”.
A 9 de março, a Anthropic intentou duas ações contra o governo por causa desta designação. Uma delas pede a reapreciação da decisão do Pentágono ao abrigo da legislação atualmente em vigor.
A empresa sustenta que a inclusão na lista negra é “sem precedentes e ilegal”, uma vez que, historicamente, só tinha sido aplicada a adversários estrangeiros, como a Huawei, e não pode ser legalmente instrumentalizada contra uma empresa norte-americana devido a um desacordo em matéria de política pública.
Na outra ação, a empresa argumenta que a decisão de a colocar na lista negra levanta questões relacionadas com a Primeira Emenda da Constituição dos EUA, designadamente o direito à liberdade de expressão e à manifestação.
Quais argumentos apresenta o Departamento de Guerra dos EUA?
Em 2025, a Anthropic assinou um contrato de 200 milhões de dólares com o Pentágono para integrar a sua tecnologia em sistemas classificados. Nas negociações posteriores, a empresa afirmou que não queria que os seus sistemas de IA fossem utilizados para vigilância massiva e que a tecnologia não estava preparada para ser usada em decisões de disparo de armamento.
Num requerimento apresentado a 17 de março, o Departamento de Guerra afirmou estar preocupado com a possibilidade da Anthropic “tentar desativar a sua tecnologia ou alterar preventivamente o comportamento do modelo” antes ou durante “operações de combate”, caso a empresa “entenda que as suas ‘linhas vermelhas’ corporativas estão a ser ultrapassadas”.
A Anthropic afirmou que esta preocupação nunca foi mencionada durante as negociações e só surgiu nos documentos apresentados pelo governo em tribunal.
A Euronews Next contactou a Anthropic, mas não obteve resposta até à publicação deste artigo.
A juíza Lin vai ouvir os argumentos sobre se deve conceder ou não uma providência cautelar à Anthropic.
Impacto mais amplo
Cientistas e investigadores de IA, incluindo os das grandes empresas OpenAI, Google e Microsoft, bem como organizações jurídicas, apresentaram pareceres em tribunal em apoio da Anthropic.
O Pentágono passou, entretanto, a concentrar-se na colaboração com outras empresas de IA, incluindo a OpenAI, a xAI e a Google.