O Centro de Normas e Inovação em IA dos EUA avaliará os modelos de riscos relacionados com a cibersegurança, a biossegurança e as armas químicas antes de serem divulgados ao público.
O governo dos Estados Unidos vai passar a testar novas ferramentas de inteligência artificial (IA) antes de serem divulgadas ao público.
As empresas de tecnologia Google, Microsoft e xAI concordaram que o Departamento de Comércio dos Estados Unidos examinasse os seus modelos através do Centro de Normas e Inovação de IA (CAISI na sigla original).
As avaliações abrangerão "testes, investigação em colaboração e desenvolvimento de melhores práticas relacionadas com sistemas comerciais de IA", lê-se na declaração.
O CAISI também avaliará "riscos demonstráveis" associados aos sistemas de IA, como segurança cibernética, biossegurança e riscos de armas químicas, diz seu site.
"A ciência de medição independente e rigorosa é essencial para entender a IA de fronteira e suas implicações para a segurança nacional", disse o diretor do CAISI, Chris Fall, em um comunicado. "Essas colaborações alargadas da indústria ajudam-nos a dimensionar o nosso trabalho no interesse público num momento crítico".
A Microsoft disse numa declaração pública que as avaliações do CAISI os ajudarão a ficar à frente dos riscos, como ataques cibernéticos de IA, para o seu modelo de IA, Copilot.
Mudança de ênfase para Trump
O anúncio de que as empresas de IA serão avaliadas é uma mudança para o presidente Trump, que há muito argumenta que a regulamentação excessiva dos sistemas de IA pode prejudicar a inovação do país e permitir que a China obtenha uma vantagem.
Em março, Trump divulgou o seu Quadro de Política Nacional de IA, que diz que os Estados Unidos irão "remover barreiras à inovação" e "acelerar" a implantação de IA em vários setores.
Afirmou também que o Congresso não criará "poucos órgãos reguladores federais para regular a IA", mas que, em vez disso, fará com que os órgãos reguladores existentes e os especialistas em domínios específicos examinem os modelos.
O CAISI já realizou 40 avaliações de outros modelos, incluindo alguns "modelos de última geração que ainda não foram lançados", mas não especificou a que modelos se refere.
"Renegociação" dos acordos existentes
A OpenAI e a Anthropic assinaram acordos para estas avaliações em 2024, durante o mandato do antigo presidente Joe Biden. O CAISI disse que os acordos existentes foram "renegociados", mas não entrou em detalhes sobre o que mudou.
Chris Lehane, diretor de assuntos globais da OpenAI, disse no LinkedIn que a empresa forneceu ao governo o ChatGPT5.5 antes do seu lançamento público esta semana para "apoiar testes e avaliações de segurança nacional".
Lehane disse que a OpenAI está a trabalhar com o CAISI em modelos de teste como o GPT-5.5-Cyber, um modelo específico que irá reforçar as capacidades de defesa cibernética e que só está disponível para um grupo limitado de primeiros utilizadores.
A OpenAI disse que também está envolvida no desenvolvimento de uma "estratégia de implantação responsável" para o modelo de cibersegurança, incluindo um manual para distribuir esses modelos em todo o serviço público.