Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

Anthropic e OpenAI recrutam peritos em armas para evitar uso catastrófico

ARQUIVO - Site e aplicação móvel da Anthropic mostram-se nesta foto em Nova Iorque, 5 de julho de 2024
FOTO DE ARQUIVO - Site e aplicação móvel da Anthropic surgem nesta foto, em Nova Iorque, a 5 de julho de 2024 Direitos de autor  AP Photo/Richard Drew, File
Direitos de autor AP Photo/Richard Drew, File
De Anna Desmarais
Publicado a
Partilhar Comentários
Partilhar Close Button

Anthropic e OpenAI recrutam especialistas em químicos e explosões para reforçar a segurança dos seus sistemas de inteligência artificial

As empresas de inteligência artificial (IA) Anthropic e OpenAI procuram contratar especialistas em armas e explosivos para evitar a utilização indevida das suas tecnologias, de acordo com anúncios de emprego publicados por ambas.

PUBLICIDADE
PUBLICIDADE

A Anthropic anunciou, numa publicação (fonte em inglês) no LinkedIn, que procurava um especialista em políticas sobre armas químicas e explosivos para evitar uma "utilização catastrófica" da sua tecnologia, definindo a forma como os seus sistemas de IA tratam informação sensível nestes domínios.

A pessoa contratada pela Anthropic irá conceber e supervisionar os mecanismos de proteção que regulam a forma como os modelos de IA reagem a pedidos relacionados com armas químicas e explosivos. Terá também de coordenar "respostas rápidas" a quaisquer escaladas que a Anthropic detete em pedidos sobre armas e explosivos.

Os candidatos devem ter, no mínimo, cinco anos de experiência em "defesa contra armas químicas e/ou explosivos", bem como conhecimentos de "dispositivos de dispersão radiológica", as chamadas bombas sujas. A função envolve conceber (fonte em inglês) novas avaliações de risco nas quais a liderança da empresa possa "confiar em lançamentos de grande impacto".

Num anúncio de emprego publicado no início deste mês, a OpenAI indicou procurar investigadores para integrarem a sua equipa Preparedness, que monitoriza "riscos catastróficos relacionados com modelos avançados de IA".

A empresa publicitou também uma vaga para Threat Modeler, função que dará a uma pessoa a responsabilidade principal de "identificar, modelizar e prever riscos de fronteira" e de servir como "nó central que liga perspetivas técnicas, de governação e de políticas sobre a priorização, o foco e a fundamentação da nossa abordagem aos riscos de fronteira da IA".

A Euronews Next contactou a Anthropic e a OpenAI sobre estes anúncios de emprego, mas não obteve uma resposta imediata.

Estas contratações surgem depois de a Anthropic ter apresentado uma ação judicial contra o governo dos Estados Unidos, que classificou a empresa como "risco para a cadeia de abastecimento", rótulo que permite ao governo bloquear contratos ou instruir departamentos a não trabalharem com a empresa.

O conflito começou a 24 de fevereiro, quando o Departamento de Guerra (DOW) exigiu acesso irrestrito ao chatbot Claude da Anthropic.

O diretor executivo, Dario Amodei, afirmou (fonte em inglês) que os contratos com o DOW não devem incluir situações em que o Claude seja utilizado para vigilância interna em massa ou integrado em armas totalmente autónomas.

Pouco depois da rutura com a Anthropic, a OpenAI assinou um acordo com o Departamento de Guerra (DOW) para implementar a sua IA em ambientes classificados. A empresa afirmou que o acordo estabelece linhas vermelhas rigorosas, como a proibição de usar os seus sistemas para vigilância em massa ou em armas autónomas.

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Jogadores de Pokémon Go ajudam sem saber a treinar robôs de entregas

Irão: ciberataques servem de armas na guerra

Agentes de IA e espaço: destaques da conferência anual da Nvidia