Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

EUA classificam Anthropic como risco na cadeia de abastecimento em disputa sobre IA militar

Páginas do site da Anthropic e o logótipo da empresa surgem num ecrã de computador em Nova Iorque, na quinta-feira, 26 de fevereiro de 2026
Páginas do site da Anthropic e o logótipo da empresa são exibidos num ecrã de computador em Nova Iorque, quinta-feira, 26 de fevereiro de 2026. Direitos de autor  AP Photo
Direitos de autor AP Photo
De Roselyne Min com AP
Publicado a
Partilhar Comentários
Partilhar Close Button

Medida inédita da administração Trump contra a Anthropic, devido às salvaguardas de IA, leva fornecedores do Estado a rever o uso do chatbot Claude

A administração norte-americana está a cumprir a ameaça de classificar a empresa de inteligência artificial (IA) Anthropic como risco para a cadeia de abastecimento, numa decisão sem precedentes que pode obrigar outros contratantes do Estado a deixarem de usar o chatbot de IA Claude.

PUBLICIDADE
PUBLICIDADE

O Pentágono afirmou em comunicado, na quinta-feira, que “informou oficialmente a liderança da Anthropic de que a empresa e os seus produtos são considerados um risco para a cadeia de abastecimento, com efeitos imediatos”.

A decisão parece ter fechado a porta a novas negociações com a Anthropic, quase uma semana depois de o Presidente Donald Trump e o secretário da Defesa, Pete Hegseth, terem acusado a empresa de pôr em causa a segurança nacional.

Trump e Hegseth anunciaram uma série de sanções ameaçadas na última sexta-feira, na véspera da guerra com o Irão, depois de o CEO da Anthropic, Dario Amodei, se recusar a ceder na sua posição, motivada por receios de que os produtos da empresa possam ser usados para vigilância em massa de norte-americanos ou em armamento autónomo.

Amodei afirmou em comunicado, na quinta-feira, que “não consideramos que esta decisão tenha base legal e não vemos alternativa senão contestá-la em tribunal”.

“Está em causa um princípio fundamental: as forças armadas poderem usar tecnologia para todos os fins legais”, indicou o comunicado do Pentágono.

“Os militares não permitirão que um fornecedor se intrometa na cadeia de comando, restringindo o uso legítimo de uma capacidade crítica e colocando em risco os nossos militares”, acrescentou.

Amodei contrapôs que as exceções limitadas que a Anthropic tentava introduzir para restringir a vigilância e as armas autónomas “dizem respeito a áreas de utilização de alto nível e não à tomada de decisões operacional”.

Acrescentou que tinham existido “conversas produtivas” com o Pentágono nos últimos dias sobre a possibilidade de este continuar a usar o Claude ou preparar uma “transição sem sobressaltos” caso não fosse alcançado um acordo.

Trump deu às forças armadas seis meses para deixarem de usar o Claude, já amplamente integrado em plataformas militares e de segurança nacional. Amodei disse que é prioritário garantir que os militares no terreno não fiquem “privados de ferramentas importantes em plena condução de grandes operações de combate”.

Alguns contratantes militares já estavam a cortar relações com a Anthropic, estrela em ascensão no setor tecnológico que fornece o Claude a várias empresas e agências governamentais.

A empresa de defesa Lockheed Martin afirmou que irá “seguir as orientações do Presidente e do Departamento de Guerra” e procurar outros fornecedores de modelos de linguagem de grande dimensão (LLM).

“Prevemos impactos mínimos, uma vez que a Lockheed Martin não depende de um único fornecedor de LLM em qualquer parte do nosso trabalho”, indicou a empresa.

Não é claro como o Departamento de Defesa dos EUA irá interpretar o alcance desta classificação de risco. Amodei disse que uma notificação recebida pela Anthropic do Pentágono, na quarta-feira, mostra que a medida se aplica apenas ao uso do Claude pelos clientes como “parte direta” dos respetivos contratos militares.

A Microsoft afirmou que os seus juristas analisaram a regra e que a empresa “pode continuar a trabalhar com a Anthropic em projetos não relacionados com a defesa”.

Pentágono enfrenta críticas pela decisão

A decisão do Pentágono de aplicar uma regra concebida para responder a ameaças à cadeia de abastecimento por parte de adversários estrangeiros foi alvo de críticas generalizadas. Os códigos federais definem risco para a cadeia de abastecimento como um “risco de que um adversário possa sabotar, introduzir maliciosamente uma função indesejada ou de outra forma subverter” um sistema para o perturbar, degradar ou espiar.

A senadora norte-americana Kirsten Gillibrand, democrata de Nova Iorque e membro das comissões de Forças Armadas e dos Serviços de Informações do Senado, classificou a decisão como “um uso perigoso de uma ferramenta destinada a lidar com tecnologia controlada por adversários”.

“Esta ação imprudente é míope, autodestrutiva e um presente para os nossos adversários”, afirmou em declaração escrita divulgada na quinta-feira.

Neil Chilson, antigo diretor de tecnologia republicano da Comissão Federal do Comércio, que atualmente lidera a área de política de IA no Abundance Institute, disse que a decisão parece “um enorme exagero que prejudicará tanto o setor de IA dos EUA como a capacidade das forças armadas de adquirirem a melhor tecnologia para os militares norte-americanos”.

Mais cedo, um grupo de antigos responsáveis pela defesa e segurança nacional enviou uma carta aos legisladores norte-americanos expressando “grave preocupação” com a classificação.

“O uso desta autoridade contra uma empresa americana é um afastamento profundo do objetivo com que foi criada e estabelece um precedente perigoso”, lê-se na carta, assinada por antigos responsáveis e especialistas em políticas públicas, incluindo o ex-diretor da CIA Michael Hayden e antigos líderes da Força Aérea, do Exército e da Marinha.

Os signatários acrescentam que esta classificação se destina a “proteger os Estados Unidos da infiltração por adversários estrangeiros — de empresas dependentes de Pequim ou Moscovo, e não de inovadores norte-americanos que operam de forma transparente, sob o primado da lei. Aplicar este instrumento para penalizar uma empresa dos EUA por se recusar a eliminar salvaguardas contra a vigilância em massa em território nacional e contra armas totalmente autónomas é um erro de categoria, com consequências que vão muito além desta disputa.”

Disparam descargas de consumidores da Anthropic

Apesar de estar a perder grandes parcerias com contratantes da defesa, a Anthropic registou na última semana um forte aumento das descargas por parte de consumidores, à medida que muitos se alinham com a sua posição ética. Mais de um milhão de pessoas inscreveram-se diariamente no Claude ao longo desta semana, segundo a empresa, fazendo com que superasse o ChatGPT, da OpenAI, e o Gemini, da Google, como principal aplicação de IA em mais de 20 países na loja de aplicações da Apple.

A disputa com o Pentágono aprofundou também a intensa rivalidade da Anthropic com a OpenAI, que começou quando antigos responsáveis da OpenAI, incluindo Amodei, fundaram a Anthropic em 2021.

Poucas horas depois de o Pentágono ter sancionado a Anthropic, na última sexta-feira, a OpenAI anunciou um acordo para substituir, na prática, a Anthropic pelo ChatGPT em ambientes militares classificados.

A OpenAI afirmou que procurou salvaguardas semelhantes contra a vigilância interna e armas totalmente autónomas, mas teve depois de alterar os acordos, levando o CEO, Sam Altman, a admitir que não deveria ter precipitado um negócio que “parecia oportunista e descuidado”.

Amodei lamentou também o seu próprio papel nesse “dia difícil para a empresa”, dizendo na quinta-feira que queria “pedir desculpa diretamente” por uma nota interna enviada à equipa da Anthropic, na qual criticava o comportamento da OpenAI e sugeria que a Anthropic estava a ser punida por não ter dirigido a Trump “elogios ao estilo de um ditador”.

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Meta enfrenta processo por privacidade nos óculos inteligentes com IA

Dispositivo vestível permite a animais de estimação ligar aos donos quando precisam de atenção

Irão intensifica desinformação em plena guerra com os EUA