O Pentágono classificou a Anthropic, na semana passada, como risco para a cadeia de abastecimento, obrigando as empresas a deixar de usar o Claude no Departamento de Defesa
A Anthropic processou o Departamento de Defesa dos EUA em tribunal na segunda-feira, depois de a agência a ter classificado como risco para a cadeia de abastecimento na semana passada.
A queixa judicial surge após um conflito entre a Anthropic e o Departamento de Defesa sobre se os militares devem ter acesso irrestrito aos sistemas de IA da empresa.
O Pentágono sancionou a criadora do Claude na semana passada, considerando-a um risco para a cadeia de abastecimento, o que obriga as empresas a deixarem de usar o Claude em casos diretamente ligados ao departamento.
O Presidente Donald Trump afirmou também que iria ordenar às agências federais que deixassem de utilizar o Claude, embora tenha dado ao Pentágono seis meses para retirar gradualmente um produto profundamente integrado em sistemas militares classificados, incluindo os usados na guerra no Irão.
“Não consideramos que esta decisão tenha fundamento legal e não vemos alternativa senão contestá-la em tribunal”, escreveu o presidente-executivo da Anthropic, Dario Amodei, num texto publicado no blogue da empresa na quinta-feira.
O processo pede que um juiz reverta o “rótulo de risco para a cadeia de abastecimento” e impeça as agências federais de o aplicarem.
“A Constituição não permite que o governo use o seu enorme poder para punir uma empresa pela sua expressão protegida”, afirma a Anthropic na queixa. “A Anthropic recorre ao poder judicial como último recurso para fazer valer os seus direitos e travar a campanha de retaliação ilegal do Executivo.”
O Departamento de Defesa recusou comentar na segunda-feira, invocando uma política de não comentar casos em litígio, noticiou a AP.
A Anthropic afirmou que procurou impedir que a sua tecnologia fosse usada em duas áreas de alto nível: vigilância massiva de norte-americanos e armas totalmente autónomas.
O secretário da Defesa, Pete Hegseth, e outros responsáveis insistiram publicamente que a empresa tem de aceitar “todos os usos legais” do Claude e ameaçaram-na com sanções caso a Anthropic não cumpra.
A Anthropic desenvolve o chatbot Claude e é a última entre as empresas rivais a não fornecer a sua tecnologia para uma nova rede interna das forças armadas norte-americanas.
A Anthropic obteve em julho passado um contrato de 200 milhões de dólares (167 milhões de euros) com o Departamento de Defesa dos EUA para “desenvolver protótipos de capacidades avançadas de IA que reforcem a segurança nacional dos Estados Unidos”, indicou a empresa.
A empresa assinou uma(fonte em inglês)target="_blank" rel="noopener noreferrer nofollow" href="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/" tooltip="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/"> parceria com a Palantir Technologies em 2024 para integrar o Claude em software de informações dos EUA.