O departamento de Guerra classificou a Anthropic como um "risco para a cadeia de abastecimento", o que permite excluí-la de concursos e impedir outras empresas de trabalharem com a mesma.
A Microsoft, antigos líderes militares na reserva e grupos de reflexão em inteligência artificial (IA) estão a apoiar a Anthropic no processo para anular a classificação atribuída à empresa pelo governo Trump como 'risco para a cadeia de abastecimento'.
As ações do Departamento de Guerra dos Estados Unidos (DOW) "obrigam os fornecedores do Estado a cumprir orientações vagas e mal definidas, nunca antes usadas publicamente contra uma empresa norte-americana", refere o requerimento judicial da Microsoft.
No mesmo documento, a empresa alerta que a designação de risco para a cadeia de abastecimento "pode ter graves consequências económicas contrárias ao interesse público" e pede ao juiz que suspenda temporariamente essa classificação.
Estes requerimentos surgem depois de, na semana passada, a Anthropic ter avançado com uma ação judicial contra o Departamento de Guerra dos Estados Unidos.
A classificação da Anthropic como risco para a cadeia de abastecimento permite ao governo excluí-la de concursos públicos, retirar os seus produtos da lista de opções e impedir os grandes contratantes principais de utilizarem a empresa como fornecedora.
Até há pouco tempo, a Anthropic era a única entre as empresas do setor autorizada a operar em redes militares classificadas. O seu chatbot de IA tinha sido instalado nas redes de informação confidencial do governo norte-americano, utilizado nos laboratórios nucleares nacionais e apoiava a análise de informação do Departamento de Guerra.
Quem mais veio apoiar a Anthropic?
Vários pareceres conjuntos em apoio à Anthropic foram apresentados por responsáveis militares norte-americanos, grandes empresas tecnológicas e organizações ligadas à IA.
Segundo um desses documentos, o comportamento do secretário da Defesa dos EUA, Pete Hegseth, em relação à Anthropic "ameaça os princípios do Estado de direito que há muito fortalecem as nossas forças armadas". O texto é subscrito por Michael Hayden, antigo diretor da Agência Central de Informações (CIA) dos Estados Unidos.
Os autores alegam ainda que as ações de Hegseth representam um abuso de poder público para "castigar uma empresa privada que desagradou à liderança".
O parecer assinado por antigos responsáveis militares alerta que a "incerteza súbita" criada ao visar uma tecnologia amplamente integrada em plataformas militares pode perturbar o planeamento e colocar soldados em risco em operações em curso, como a guerra no Irão.
Um outro documento, apresentado em nome de 37 engenheiros de IA que trabalharam anteriormente na OpenAI e na DeepMind da Google, classifica as ações do DOW como um "uso indevido e arbitrário de poder, com consequências graves para o nosso setor".
Segundo o texto, "se avançar, esta tentativa de punir uma das principais empresas norte-americanas de IA terá inevitavelmente consequências para a competitividade industrial e científica dos Estados Unidos no domínio da inteligência artificial e para lá dele". "E irá arrefecer o debate aberto no nosso setor sobre os riscos e benefícios dos sistemas de IA atuais."
Outro documento sustenta que não é difícil "imaginar um mundo em que o governo controla efetivamente o que todos os norte-americanos fazem e dizem", caso o Estado consiga ditar as políticas da Anthropic.
O parecer conjunto, apresentado por organizações como a Electronic Frontier Foundation e o Cato Institute, afirma que as ações do governo violam a Primeira Emenda, a parte da Constituição que consagra a liberdade de expressão.
As mesmas ações "ameaçam a vitalidade e a independência da nossa democracia", lê-se no documento.
Como começou o conflito?
O diferendo entre a Anthropic e os militares norte-americanos começou quando a empresa recusou conceder às forças armadas acesso ilimitado ao seu chatbot de IA, Claude. O governo deu à Anthropic 48 horas para abrir esse acesso, sob pena de sanções.
O diretor-executivo da Anthropic, Dario Amodei, afirmou que a empresa estabeleceu duas linhas vermelhas para os militares: a tecnologia não pode ser usada para vigilância em massa no território nacional, nem integrada em armas totalmente autónomas.
A Amodei declarou num comunicado, de 26 de fevereiro, que "não pode, em consciência, aceder ao pedido do Pentágono" de acesso irrestrito aos sistemas de IA da empresa.
"Em alguns casos específicos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos", escreveu. "Algumas utilizações estão também simplesmente fora do âmbito do que a tecnologia atual consegue fazer de forma segura e fiável", acrescentou.
No seu requerimento ao tribunal, a Microsoft apoiou as linhas vermelhas da Anthropic, defendendo que "a IA norte-americana não deve ser usada para realizar vigilância em massa no país nem para iniciar uma guerra sem controlo humano", sublinhando que esta posição "é consistente com a lei".
Segundo um comunicado de Hegseth, o Claude será também retirado progressivamente das operações militares ao longo dos próximos seis meses.
Num comunicado, a Amodei afirmou que o Departamento de Guerra pode escolher com quem trabalha em contratos mais alinhados com a sua visão, mas que "tendo em conta o valor considerável que a tecnologia da Anthropic oferece às nossas forças armadas, esperamos que reconsidere".