Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

Estudo diz IA 'menos regulada do que sandes' e tecnológicas em corrida à superinteligência

Relatório Winter AI Safety Index 2025, divulgado pela organização sem fins lucrativos Future of Life Institute (FLI), avaliou oito principais empresas de IA.
Divulgado pela organização sem fins lucrativos Future of Life Institute (FLI), o relatório Winter AI Safety Index 2025 avaliou oito grandes empresas de IA Direitos de autor  Canva
Direitos de autor Canva
De Pascale Davies
Publicado a
Partilhar Comentários
Partilhar Close Button

Oito empresas de IA, incluindo OpenAI, Meta, Anthropic e DeepSeek, não têm planos credíveis para evitar riscos catastróficos de IA, revela estudo

As maiores empresas de inteligência artificial (IA) do mundo estão a falhar nos seus próprios compromissos de segurança, segundo uma nova avaliação que alerta para riscos "catastróficos" associados a essas falhas.

O relatório surge numa altura em que as empresas de IA enfrentam processos judiciais e alegações de que os seus chatbots causam danos psicológicos, incluindo ao agir como um "conselheiro de suicídio", bem como relatos de ciberataques assistidos por IA.

Relatório Winter 2025 do AI Safety Index, divulgado pela organização sem fins lucrativos Future of Life Institute (FLI), avaliou oito grandes empresas de IA, incluindo as norte-americanas Anthropic, OpenAI, Google DeepMind, xAI e Meta, e as chinesas DeepSeek, Alibaba Cloud e Z.ai.

Concluiu falta de estratégias credíveis para prevenir utilizações catastróficas ou perda de controlo das ferramentas de IA, numa corrida das empresas à inteligência artificial geral (AGI) e à superinteligência, uma forma de IA que ultrapassa o intelecto humano.

Analistas independentes que estudaram o relatório concluíram que nenhuma empresa apresentou um plano testável para manter o controlo humano sobre sistemas de IA altamente capazes.

Stuart Russell, professor de ciência computacional na Universidade da Califórnia, Berkeley, afirmou que as empresas de IA dizem conseguir construir IA sobre-humana, mas nenhuma demonstrou como evitar a perda de controlo humano sobre tais sistemas.

"Procuro prova de que conseguem reduzir o risco anual de perda de controlo para um em cem milhões, em linha com os requisitos dos reatores nucleares", escreveu Russell. "Em vez disso, admitem que o risco pode ser de um em dez, um em cinco, até um em três, e não conseguem justificar nem melhorar esses números".

Como ficaram posicionadas as empresas?

O estudo avaliou as empresas em seis áreas críticas: avaliação de riscos, danos atuais, quadros de segurança, segurança existencial, governação e responsabilização, e partilha de informação.

Apesar de registar progressos em algumas categorias, o painel independente de peritos concluiu que a implementação continua inconsistente e frequentemente carece da profundidade exigida pelas normas globais emergentes.

Anthropic, OpenAI e Google DeepMind foram elogiadas por transparência relativamente robusta, quadros públicos de segurança e investimentos contínuos em investigação técnica de segurança. Ainda assim, mantêm fragilidades.

A Anthropic foi criticada por ter interrompido ensaios de "human uplift" e por passar a treinar por defeito com base em interações dos utilizadores, decisão que, segundo especialistas, enfraquece as proteções de privacidade.

A OpenAI foi criticada por limiares de segurança ambíguos, lobby contra legislação de segurança da IA a nível estadual e supervisão independente insuficiente.

A Google DeepMind melhorou o seu quadro de segurança, conclui o relatório, mas continua a depender de avaliadores externos remunerados pela empresa, o que compromete a sua independência.

"As três principais empresas sofreram danos atuais devido a escândalos recentes (danos psicológicos, suicídios de menores, o grande ataque informático à Anthropic) e todas têm margem para melhorar", disse a Euronews Next Max Tegmark, presidente do FLI e professor no Massachusetts Institute of Technology (MIT).

As restantes cinco empresas mostraram progressos desiguais mas assinaláveis, segundo o relatório. Ainda assim, há margem para melhorar.

Por exemplo, a xAI publicou o seu primeiro quadro estruturado de segurança, embora os avaliadores alertem que é estreito e carece de gatilhos claros de mitigação.

A Z.ai foi a única a permitir a publicação sem censura das suas avaliações externas de segurança, mas foi recomendado que divulgue o quadro completo de segurança e a estrutura de governação, com áreas de risco claras, medidas de mitigação e processos de decisão.

 Oito empresas líderes de IA, incluindo OpenAI, Meta, Anthropic e DeepSeek, não têm planos credíveis para prevenir riscos catastróficos de IA, mostra um novo estudo.
Oito empresas líderes de IA, incluindo OpenAI, Meta, Anthropic e DeepSeek, não têm planos credíveis para prevenir riscos catastróficos de IA, mostra um novo estudo. Future of Life Institute

A Meta apresentou um novo quadro de segurança para modelos de ponta, com limiares baseados em resultados, mas os avaliadores dizem que deve clarificar metodologias e partilhar processos de avaliação internos e externos mais robustos.

A DeepSeek foi reconhecida pela defesa interna feita por colaboradores, mas continua sem documentação básica de segurança.

A Alibaba Cloud foi considerada como tendo contribuído para normas nacionais vinculativas sobre requisitos de marca de água, mas pode melhorar a robustez e a fiabilidade dos modelos ao elevar o desempenho em métricas de veracidade, equidade e segurança.

A Euronews Next contactou as empresas para obter respostas ao relatório, mas não recebeu resposta até à hora de publicação.

'Menos regulada do que sandes'

"Espero que ultrapassemos a fase em que as empresas crescem com base na reputação", disse Tegmark.

"Quando se lhes pergunta pelos planos para controlar a AGI, nenhuma tem plano", acrescentou.

Entretanto, empresas tecnológicas como a Meta usam "superinteligência" como chavão para promover os seus mais recentes modelos de IA. Este ano, a Meta deu à sua divisão de grandes modelos de linguagem (LLM) o nome Meta Superintelligence Labs.

Tegmark afirma haver uma grande mudança nas discussões sobre AGI e superinteligência. Se antes tecnólogos a descreviam como possibilidade real num horizonte de 100 anos, agora dizem que poderá chegar nos próximos anos.

"A IA é também menos regulada do que sandes [nos Estados Unidos], e continua o lobby contra normas de segurança vinculativas no governo", disse.

Mas Tegmark salientou que, por outro lado, há uma reação sem precedentes contra a falta de controlo da AGI e da superinteligência.

Em outubro, milhares de figuras públicas, incluindo líderes de IA e tecnologia, pediram às empresas de IA que abrandassem a corrida à superinteligência.

A petição, organizada pelo FLI, reuniu assinaturas de todo o espectro político, incluindo Steve Bannon (antigo estratega-chefe do presidente dos EUA, Donald Trump), Susan Rice (antiga conselheira de Segurança Nacional sob o ex-presidente Obama), líderes religiosos e muitos outros ex-políticos, além de destacados cientistas informáticos.

"O que têm estas pessoas em comum? Concordaram com uma declaração. Considero extremamente significativo que, desde a base MAGA de Trump até líderes religiosos, à esquerda e aos movimentos laborais, haja acordo sobre algo", disse Tegmark.

"A superinteligência tornaria impossível a cada trabalhador ganhar a vida, já que todos os empregos seriam ocupados por robôs. As pessoas dependeriam de subsídios do governo; à direita, seriam vistos como esmolas e, à esquerda, como um governo ao estilo de 1984", disse. "Acho que o que está a acontecer é que as pessoas estão a chegar ao ponto de rutura."

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Mistral, líder europeia em IA, lança novos modelos de ponta mais pequenos

Fungo descoberto em Chernobil rumo a Marte pode proteger astronautas da radiação espacial

Francês "padrinho da IA" Yann LeCun confirma saída da Meta para criar start-up de IA