Anthropic e OpenAI recrutam especialistas em químicos e explosões para reforçar a segurança dos seus sistemas de inteligência artificial
As empresas de inteligência artificial (IA) Anthropic e OpenAI procuram contratar especialistas em armas e explosivos para evitar a utilização indevida das suas tecnologias, de acordo com anúncios de emprego publicados por ambas.
A Anthropic anunciou, numa publicação (fonte em inglês) no LinkedIn, que procurava um especialista em políticas sobre armas químicas e explosivos para evitar uma "utilização catastrófica" da sua tecnologia, definindo a forma como os seus sistemas de IA tratam informação sensível nestes domínios.
A pessoa contratada pela Anthropic irá conceber e supervisionar os mecanismos de proteção que regulam a forma como os modelos de IA reagem a pedidos relacionados com armas químicas e explosivos. Terá também de coordenar "respostas rápidas" a quaisquer escaladas que a Anthropic detete em pedidos sobre armas e explosivos.
Os candidatos devem ter, no mínimo, cinco anos de experiência em "defesa contra armas químicas e/ou explosivos", bem como conhecimentos de "dispositivos de dispersão radiológica", as chamadas bombas sujas. A função envolve conceber (fonte em inglês) novas avaliações de risco nas quais a liderança da empresa possa "confiar em lançamentos de grande impacto".
Num anúncio de emprego publicado no início deste mês, a OpenAI indicou procurar investigadores para integrarem a sua equipa Preparedness, que monitoriza "riscos catastróficos relacionados com modelos avançados de IA".
A empresa publicitou também uma vaga para Threat Modeler, função que dará a uma pessoa a responsabilidade principal de "identificar, modelizar e prever riscos de fronteira" e de servir como "nó central que liga perspetivas técnicas, de governação e de políticas sobre a priorização, o foco e a fundamentação da nossa abordagem aos riscos de fronteira da IA".
A Euronews Next contactou a Anthropic e a OpenAI sobre estes anúncios de emprego, mas não obteve uma resposta imediata.
Estas contratações surgem depois de a Anthropic ter apresentado uma ação judicial contra o governo dos Estados Unidos, que classificou a empresa como "risco para a cadeia de abastecimento", rótulo que permite ao governo bloquear contratos ou instruir departamentos a não trabalharem com a empresa.
O conflito começou a 24 de fevereiro, quando o Departamento de Guerra (DOW) exigiu acesso irrestrito ao chatbot Claude da Anthropic.
O diretor executivo, Dario Amodei, afirmou (fonte em inglês) que os contratos com o DOW não devem incluir situações em que o Claude seja utilizado para vigilância interna em massa ou integrado em armas totalmente autónomas.
Pouco depois da rutura com a Anthropic, a OpenAI assinou um acordo com o Departamento de Guerra (DOW) para implementar a sua IA em ambientes classificados. A empresa afirmou que o acordo estabelece linhas vermelhas rigorosas, como a proibição de usar os seus sistemas para vigilância em massa ou em armas autónomas.