Medida inédita da administração Trump contra a Anthropic, devido às salvaguardas de IA, leva fornecedores do Estado a rever o uso do chatbot Claude
A administração norte-americana está a cumprir a ameaça de classificar a empresa de inteligência artificial (IA) Anthropic como risco para a cadeia de abastecimento, numa decisão sem precedentes que pode obrigar outros contratantes do Estado a deixarem de usar o chatbot de IA Claude.
O Pentágono afirmou em comunicado, na quinta-feira, que “informou oficialmente a liderança da Anthropic de que a empresa e os seus produtos são considerados um risco para a cadeia de abastecimento, com efeitos imediatos”.
A decisão parece ter fechado a porta a novas negociações com a Anthropic, quase uma semana depois de o Presidente Donald Trump e o secretário da Defesa, Pete Hegseth, terem acusado a empresa de pôr em causa a segurança nacional.
Trump e Hegseth anunciaram uma série de sanções ameaçadas na última sexta-feira, na véspera da guerra com o Irão, depois de o CEO da Anthropic, Dario Amodei, se recusar a ceder na sua posição, motivada por receios de que os produtos da empresa possam ser usados para vigilância em massa de norte-americanos ou em armamento autónomo.
Amodei afirmou em comunicado, na quinta-feira, que “não consideramos que esta decisão tenha base legal e não vemos alternativa senão contestá-la em tribunal”.
“Está em causa um princípio fundamental: as forças armadas poderem usar tecnologia para todos os fins legais”, indicou o comunicado do Pentágono.
“Os militares não permitirão que um fornecedor se intrometa na cadeia de comando, restringindo o uso legítimo de uma capacidade crítica e colocando em risco os nossos militares”, acrescentou.
Amodei contrapôs que as exceções limitadas que a Anthropic tentava introduzir para restringir a vigilância e as armas autónomas “dizem respeito a áreas de utilização de alto nível e não à tomada de decisões operacional”.
Acrescentou que tinham existido “conversas produtivas” com o Pentágono nos últimos dias sobre a possibilidade de este continuar a usar o Claude ou preparar uma “transição sem sobressaltos” caso não fosse alcançado um acordo.
Trump deu às forças armadas seis meses para deixarem de usar o Claude, já amplamente integrado em plataformas militares e de segurança nacional. Amodei disse que é prioritário garantir que os militares no terreno não fiquem “privados de ferramentas importantes em plena condução de grandes operações de combate”.
Alguns contratantes militares já estavam a cortar relações com a Anthropic, estrela em ascensão no setor tecnológico que fornece o Claude a várias empresas e agências governamentais.
A empresa de defesa Lockheed Martin afirmou que irá “seguir as orientações do Presidente e do Departamento de Guerra” e procurar outros fornecedores de modelos de linguagem de grande dimensão (LLM).
“Prevemos impactos mínimos, uma vez que a Lockheed Martin não depende de um único fornecedor de LLM em qualquer parte do nosso trabalho”, indicou a empresa.
Não é claro como o Departamento de Defesa dos EUA irá interpretar o alcance desta classificação de risco. Amodei disse que uma notificação recebida pela Anthropic do Pentágono, na quarta-feira, mostra que a medida se aplica apenas ao uso do Claude pelos clientes como “parte direta” dos respetivos contratos militares.
A Microsoft afirmou que os seus juristas analisaram a regra e que a empresa “pode continuar a trabalhar com a Anthropic em projetos não relacionados com a defesa”.
Pentágono enfrenta críticas pela decisão
A decisão do Pentágono de aplicar uma regra concebida para responder a ameaças à cadeia de abastecimento por parte de adversários estrangeiros foi alvo de críticas generalizadas. Os códigos federais definem risco para a cadeia de abastecimento como um “risco de que um adversário possa sabotar, introduzir maliciosamente uma função indesejada ou de outra forma subverter” um sistema para o perturbar, degradar ou espiar.
A senadora norte-americana Kirsten Gillibrand, democrata de Nova Iorque e membro das comissões de Forças Armadas e dos Serviços de Informações do Senado, classificou a decisão como “um uso perigoso de uma ferramenta destinada a lidar com tecnologia controlada por adversários”.
“Esta ação imprudente é míope, autodestrutiva e um presente para os nossos adversários”, afirmou em declaração escrita divulgada na quinta-feira.
Neil Chilson, antigo diretor de tecnologia republicano da Comissão Federal do Comércio, que atualmente lidera a área de política de IA no Abundance Institute, disse que a decisão parece “um enorme exagero que prejudicará tanto o setor de IA dos EUA como a capacidade das forças armadas de adquirirem a melhor tecnologia para os militares norte-americanos”.
Mais cedo, um grupo de antigos responsáveis pela defesa e segurança nacional enviou uma carta aos legisladores norte-americanos expressando “grave preocupação” com a classificação.
“O uso desta autoridade contra uma empresa americana é um afastamento profundo do objetivo com que foi criada e estabelece um precedente perigoso”, lê-se na carta, assinada por antigos responsáveis e especialistas em políticas públicas, incluindo o ex-diretor da CIA Michael Hayden e antigos líderes da Força Aérea, do Exército e da Marinha.
Os signatários acrescentam que esta classificação se destina a “proteger os Estados Unidos da infiltração por adversários estrangeiros — de empresas dependentes de Pequim ou Moscovo, e não de inovadores norte-americanos que operam de forma transparente, sob o primado da lei. Aplicar este instrumento para penalizar uma empresa dos EUA por se recusar a eliminar salvaguardas contra a vigilância em massa em território nacional e contra armas totalmente autónomas é um erro de categoria, com consequências que vão muito além desta disputa.”
Disparam descargas de consumidores da Anthropic
Apesar de estar a perder grandes parcerias com contratantes da defesa, a Anthropic registou na última semana um forte aumento das descargas por parte de consumidores, à medida que muitos se alinham com a sua posição ética. Mais de um milhão de pessoas inscreveram-se diariamente no Claude ao longo desta semana, segundo a empresa, fazendo com que superasse o ChatGPT, da OpenAI, e o Gemini, da Google, como principal aplicação de IA em mais de 20 países na loja de aplicações da Apple.
A disputa com o Pentágono aprofundou também a intensa rivalidade da Anthropic com a OpenAI, que começou quando antigos responsáveis da OpenAI, incluindo Amodei, fundaram a Anthropic em 2021.
Poucas horas depois de o Pentágono ter sancionado a Anthropic, na última sexta-feira, a OpenAI anunciou um acordo para substituir, na prática, a Anthropic pelo ChatGPT em ambientes militares classificados.
A OpenAI afirmou que procurou salvaguardas semelhantes contra a vigilância interna e armas totalmente autónomas, mas teve depois de alterar os acordos, levando o CEO, Sam Altman, a admitir que não deveria ter precipitado um negócio que “parecia oportunista e descuidado”.
Amodei lamentou também o seu próprio papel nesse “dia difícil para a empresa”, dizendo na quinta-feira que queria “pedir desculpa diretamente” por uma nota interna enviada à equipa da Anthropic, na qual criticava o comportamento da OpenAI e sugeria que a Anthropic estava a ser punida por não ter dirigido a Trump “elogios ao estilo de um ditador”.