Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

EUA classificam Anthropic como risco na cadeia de abastecimento em disputa sobre IA militar

Páginas do site da Anthropic e o logótipo da empresa surgem num ecrã de computador em Nova Iorque, na quinta-feira, 26 de fevereiro de 2026
Páginas do site da Anthropic e o logótipo da empresa são exibidos num ecrã de computador em Nova Iorque, quinta-feira, 26 de fevereiro de 2026. Direitos de autor  AP Photo
Direitos de autor AP Photo
De Roselyne Min com AP
Publicado a
Partilhar Comentários
Partilhar Close Button

Medida inédita da administração Trump contra a Anthropic, devido às salvaguardas de IA, leva fornecedores do Estado a rever o uso do chatbot Claude

A administração norte-americana está a cumprir a ameaça de classificar a empresa de inteligência artificial (IA) Anthropic como risco para a cadeia de abastecimento, numa decisão sem precedentes que pode obrigar outros contratantes do Estado a deixarem de usar o chatbot de IA Claude.

PUBLICIDADE
PUBLICIDADE

O Pentágono afirmou em comunicado, na quinta-feira, que “informou oficialmente a liderança da Anthropic de que a empresa e os seus produtos são considerados um risco para a cadeia de abastecimento, com efeitos imediatos”.

A decisão parece ter fechado a porta a novas negociações com a Anthropic, quase uma semana depois de o Presidente Donald Trump e o secretário da Defesa, Pete Hegseth, terem acusado a empresa de pôr em causa a segurança nacional.

Trump e Hegseth anunciaram uma série de sanções ameaçadas na última sexta-feira, na véspera da guerra com o Irão, depois de o CEO da Anthropic, Dario Amodei, se recusar a ceder na sua posição, motivada por receios de que os produtos da empresa possam ser usados para vigilância em massa de norte-americanos ou em armamento autónomo.

Amodei afirmou em comunicado, na quinta-feira, que “não consideramos que esta decisão tenha base legal e não vemos alternativa senão contestá-la em tribunal”.

“Está em causa um princípio fundamental: as forças armadas poderem usar tecnologia para todos os fins legais”, indicou o comunicado do Pentágono.

“Os militares não permitirão que um fornecedor se intrometa na cadeia de comando, restringindo o uso legítimo de uma capacidade crítica e colocando em risco os nossos militares”, acrescentou.

Amodei contrapôs que as exceções limitadas que a Anthropic tentava introduzir para restringir a vigilância e as armas autónomas “dizem respeito a áreas de utilização de alto nível e não à tomada de decisões operacional”.

Acrescentou que tinham existido “conversas produtivas” com o Pentágono nos últimos dias sobre a possibilidade de este continuar a usar o Claude ou preparar uma “transição sem sobressaltos” caso não fosse alcançado um acordo.

Trump deu às forças armadas seis meses para deixarem de usar o Claude, já amplamente integrado em plataformas militares e de segurança nacional. Amodei disse que é prioritário garantir que os militares no terreno não fiquem “privados de ferramentas importantes em plena condução de grandes operações de combate”.

Alguns contratantes militares já estavam a cortar relações com a Anthropic, estrela em ascensão no setor tecnológico que fornece o Claude a várias empresas e agências governamentais.

A empresa de defesa Lockheed Martin afirmou que irá “seguir as orientações do Presidente e do Departamento de Guerra” e procurar outros fornecedores de modelos de linguagem de grande dimensão (LLM).

“Prevemos impactos mínimos, uma vez que a Lockheed Martin não depende de um único fornecedor de LLM em qualquer parte do nosso trabalho”, indicou a empresa.

Não é claro como o Departamento de Defesa dos EUA irá interpretar o alcance desta classificação de risco. Amodei disse que uma notificação recebida pela Anthropic do Pentágono, na quarta-feira, mostra que a medida se aplica apenas ao uso do Claude pelos clientes como “parte direta” dos respetivos contratos militares.

A Microsoft afirmou que os seus juristas analisaram a regra e que a empresa “pode continuar a trabalhar com a Anthropic em projetos não relacionados com a defesa”.

Pentágono enfrenta críticas pela decisão

A decisão do Pentágono de aplicar uma regra concebida para responder a ameaças à cadeia de abastecimento por parte de adversários estrangeiros foi alvo de críticas generalizadas. Os códigos federais definem risco para a cadeia de abastecimento como um “risco de que um adversário possa sabotar, introduzir maliciosamente uma função indesejada ou de outra forma subverter” um sistema para o perturbar, degradar ou espiar.

A senadora norte-americana Kirsten Gillibrand, democrata de Nova Iorque e membro das comissões de Forças Armadas e dos Serviços de Informações do Senado, classificou a decisão como “um uso perigoso de uma ferramenta destinada a lidar com tecnologia controlada por adversários”.

“Esta ação imprudente é míope, autodestrutiva e um presente para os nossos adversários”, afirmou em declaração escrita divulgada na quinta-feira.

Neil Chilson, antigo diretor de tecnologia republicano da Comissão Federal do Comércio, que atualmente lidera a área de política de IA no Abundance Institute, disse que a decisão parece “um enorme exagero que prejudicará tanto o setor de IA dos EUA como a capacidade das forças armadas de adquirirem a melhor tecnologia para os militares norte-americanos”.

Mais cedo, um grupo de antigos responsáveis pela defesa e segurança nacional enviou uma carta aos legisladores norte-americanos expressando “grave preocupação” com a classificação.

“O uso desta autoridade contra uma empresa americana é um afastamento profundo do objetivo com que foi criada e estabelece um precedente perigoso”, lê-se na carta, assinada por antigos responsáveis e especialistas em políticas públicas, incluindo o ex-diretor da CIA Michael Hayden e antigos líderes da Força Aérea, do Exército e da Marinha.

Os signatários acrescentam que esta classificação se destina a “proteger os Estados Unidos da infiltração por adversários estrangeiros — de empresas dependentes de Pequim ou Moscovo, e não de inovadores norte-americanos que operam de forma transparente, sob o primado da lei. Aplicar este instrumento para penalizar uma empresa dos EUA por se recusar a eliminar salvaguardas contra a vigilância em massa em território nacional e contra armas totalmente autónomas é um erro de categoria, com consequências que vão muito além desta disputa.”

Disparam descargas de consumidores da Anthropic

Apesar de estar a perder grandes parcerias com contratantes da defesa, a Anthropic registou na última semana um forte aumento das descargas por parte de consumidores, à medida que muitos se alinham com a sua posição ética. Mais de um milhão de pessoas inscreveram-se diariamente no Claude ao longo desta semana, segundo a empresa, fazendo com que superasse o ChatGPT, da OpenAI, e o Gemini, da Google, como principal aplicação de IA em mais de 20 países na loja de aplicações da Apple.

A disputa com o Pentágono aprofundou também a intensa rivalidade da Anthropic com a OpenAI, que começou quando antigos responsáveis da OpenAI, incluindo Amodei, fundaram a Anthropic em 2021.

Poucas horas depois de o Pentágono ter sancionado a Anthropic, na última sexta-feira, a OpenAI anunciou um acordo para substituir, na prática, a Anthropic pelo ChatGPT em ambientes militares classificados.

A OpenAI afirmou que procurou salvaguardas semelhantes contra a vigilância interna e armas totalmente autónomas, mas teve depois de alterar os acordos, levando o CEO, Sam Altman, a admitir que não deveria ter precipitado um negócio que “parecia oportunista e descuidado”.

Amodei lamentou também o seu próprio papel nesse “dia difícil para a empresa”, dizendo na quinta-feira que queria “pedir desculpa diretamente” por uma nota interna enviada à equipa da Anthropic, na qual criticava o comportamento da OpenAI e sugeria que a Anthropic estava a ser punida por não ter dirigido a Trump “elogios ao estilo de um ditador”.

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Ferramentas de IA podem distorcer juízo dos utilizadores ao concordar em excesso

China impede fundadores da Manus de sair do país após compra da startup pela Meta e revê negócio

Croácia: startup, Uber e Pony.ai lançam serviço comercial de robotáxis na Europa