Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

Humanidade tem de acordar para ameaças da IA, diz CEO da Anthropic

Arquivo - Dario Amodei, CEO e cofundador da Anthropic, participa na reunião anual do Fórum Económico Mundial em Davos, Suíça, a 23 de janeiro de 2025
ARQUIVO - Dario Amodei, CEO e cofundador da Anthropic, participa na reunião anual do Fórum Económico Mundial em Davos, Suíça, 23 jan. 2025 Direitos de autor  AP Photo/Markus Schreiber, File
Direitos de autor AP Photo/Markus Schreiber, File
De Anna Desmarais
Publicado a
Partilhar Comentários
Partilhar Close Button

Dario Amodei, CEO da Anthropic, defende que é preciso regular a IA, sob pena de surgirem governos autocráticos que a usem para reprimir populações

O mundo entra numa fase do desenvolvimento da inteligência artificial (IA) que põe à prova “quem somos enquanto espécie”, alerta o CEO da Anthropic num ensaio de fôlego.

Dario Amodei defende que a humanidade entra numa “adolescência tecnológica”, com a IA a avançar mais depressa do que os sistemas legais, os enquadramentos regulatórios e a sociedade conseguem acompanhar.

Em apenas dois anos, a IA poderá tornar-se “mais inteligente do que um laureado com o Nobel” na maioria das áreas relevantes, como biologia, programação, matemática, engenharia e escrita.

Quando estes sistemas de IA trabalham em conjunto, Amodei compara-os a “um país de génios num centro de dados”, capazes de concluir tarefas complexas pelo menos dez vezes mais depressa do que um humano em áreas como conceção de software, operações cibernéticas e até construção de relações.

Esta combinação de inteligência sobrehumana, autonomia e dificuldade de controlo da tecnologia é “plausível e uma receita para perigo existencial”, escreveu.

“A humanidade tem de acordar, e este ensaio é uma tentativa, talvez fútil, mas que vale a pena, de abanar as pessoas”, disse.

O ensaio surge depois de a empresa ter publicado, na semana passada, uma “constituição” de 80 páginas para o chatbot Claude, que define como a empresa orientará a IA a comportar-se de forma segura e ética.

Amodei não é o único a alertar para os potenciais perigos da IA. Um relatório de 2025, apoiado por 30 países, indica que sistemas avançados de IA podem criar novos riscos extremos, como perdas generalizadas de emprego, facilitar o terrorismo ou perda de controlo sobre a tecnologia.

Outros líderes tecnológicos, incluindo OpenAI’s Sam Altman e o cofundador da Apple, Steve Wozniak, também têm alertado para os riscos da IA.

IA é um desafio civilizacional

Sem afirmar que o desastre é inevitável, Amodei avisa que a IA é um sério “desafio civilizacional”.

“A IA é tão poderosa, tão tentadora, que é muito difícil para a civilização impor-lhe limites”, escreveu.

Sistemas poderosos de IA podem ser usados para aconselhar governos, organizações ou indivíduos em geopolítica, diplomacia ou planeamento militar, acrescentou.

O maior perigo é autocratas usarem esse aconselhamento gerado por IA para “roubar de forma permanente” a liberdade dos cidadãos sob o seu controlo e “impor um estado totalitário do qual não possam escapar”, escreveu.

Uma IA poderosa, a analisar milhares de milhões de conversas de milhões de pessoas, poderia aferir o sentimento público, detetar focos de deslealdade em formação e eliminá-los antes de crescerem.
Dario Amodei
CEO, Anthropic

Uso em larga escala de IA para vigilância, acrescenta, deve ser considerado crime contra a humanidade.

Amodei aponta o risco de o mundo se dividir em esferas autocráticas, cada uma a usar IA para monitorizar e reprimir a população.

“Uma IA poderosa, a analisar milhares de milhões de conversas de milhões de pessoas, poderia aferir o sentimento público, detetar focos de deslealdade em formação e eliminá-los antes de crescerem”, lê-se no ensaio.

Amodei identifica o governo da China como principal preocupação, pela combinação de capacidade em IA, governação autocrática e infraestrutura de vigilância de alta tecnologia já existente.

Amodei acrescenta que democracias competitivas em IA, países não democráticos com grandes centros de dados e as próprias empresas de IA são potenciais atores que podem abusar da tecnologia.

Chips são o maior gargalo

Controlar a venda de chips avançados usados para treinar modelos de IA é a forma mais eficaz de contrariar, escreveu.

Democracias não devem vender estas tecnologias a Estados autoritários, em particular à China, amplamente vista como principal concorrente dos Estados Unidos na corrida da IA, acrescentou.

“Chips e ferramentas de fabrico de chips são o maior gargalo para a IA poderosa, e bloqueá-los é uma medida simples mas extremamente eficaz, talvez a ação única mais importante que podemos tomar”, disse.

Para além dos controlos de exportação, Amodei defende coordenação alargada no setor e supervisão social. Pede leis de transparência que obriguem as empresas de IA a divulgar como orientam o comportamento dos seus modelos.

Cita a lei SB-53 da Califórnia, conhecida como Transparency in Frontier Artificial Intelligence Act (TFAIA), como exemplo.

A lei obriga as empresas de IA a publicar, nos seus sites, quadros de referência que descrevam como a empresa incorpora práticas e normas nacionais e internacionais nos seus modelos de IA, segundo o governador da Califórnia, Gavin Newsom.

Ainda assim, Amodei mostra-se otimista quanto ao futuro da IA.

“Creio que, se agirmos com decisão e cuidado, os riscos podem ser ultrapassados; diria até que temos boas probabilidades. Há um mundo incomparavelmente melhor do outro lado. Mas é preciso entender que se trata de um desafio civilizacional sério”, disse.

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Estados Unidos: start-up espacial abre reservas para hotel insuflável na Lua

TikTok investiga bloqueio de vídeos sobre Epstein e anti-Trump entre acusações de censura

Que meios militares tem a bordo do USS Abraham Lincoln? Porta-aviões nuclear no Médio Oriente