EventsEventosPodcasts
Loader
Find Us
PUBLICIDADE

Há seis meses, especialistas pediram uma pausa nas experiências de IA. Em que ponto estamos agora?

As máquinas e a IA representam um risco existencial para a humanidade?
As máquinas e a IA representam um risco existencial para a humanidade? Direitos de autor Canva
Direitos de autor Canva
De  Luke Hurst
Publicado a Últimas notícias
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button
Artigo publicado originalmente em inglês

Líderes tecnológicos assinaram uma carta aberta apelando a uma pausa nas experiências de inteligência artificial, mas será que os seus avisos foram ouvidos?

PUBLICIDADE

A Inteligência Artificial (IA) representa um risco potencialmente existencial para a humanidade? Essa é a opinião do Future of Life Institute (FLI), que publicou uma carta aberta há seis meses, apelando a uma "pausa imediata" nas grandes experiências de IA.

A carta surgiu no meio de uma vaga de interesse público pela IA generativa, uma vez que aplicações como o ChatGPT e Midjourney mostraram como a tecnologia está cada vez mais perto de replicar a capacidade humana na escrita e na arte.

Para os signatários da carta - que incluíam o CEO da X, Tesla e SpaceX, Elon Musk, o cofundador da Apple, Steve Wozniak, e o autor Yuval Noah Harari - o aumento aparentemente repentino da IA generativa exige uma pausa. Empresas como a OpenAI, do ChatGPT, e a Google foram convidadas a considerar os "riscos profundos para a sociedade e para a humanidade" que a sua tecnologia poderá estar a criar.

É justo dizer que os principais atores não carregaram no botão de pausa.

Em vez disso, mais empresas juntaram-se à corrida da IA generativa com os seus próprios modelos de linguagem de grande dimensão (LLM), com a Meta a lançar o Llama 2 e a Anthropic a apresentar o seu rival Claude 2 do ChatGPT.

Independentemente de os avisos terem ou não sido ouvidos pelos gigantes da tecnologia, a carta do FLI constituiu uma espécie de marco no que se está a preparar para ser recordado como o ano da IA.

Mark Brakel, diretor de política do instituto, diz que não esperavam obter a resposta que a carta recebeu, com uma cobertura generalizada da imprensa e uma urgência renovada dos governos em saber o que fazer com o rápido progresso da IA.

A carta foi citada numa audição no Senado dos EUA e suscitou uma resposta formal do Parlamento Europeu.

Brakel disse à Euronews Next que a próxima cimeira mundial sobre a segurança da IA, que terá lugar em Bletchley Park, no Reino Unido, será uma boa oportunidade para os governos se manifestarem quando as empresas se recusarem a travar.

A palavra de ordem tem sido "IA generativa", mas em breve poderá ser "IA agêntica", em que a IA pode, efetivamente, tomar decisões e agir de forma autónoma.

"Penso que essa é talvez a linha de tendência que estamos a ver - e também vemos como a OpenAI quase raspou toda a Internet de texto. Estamos a começar a ver a recolha de vídeos, podcasts e Spotify como fontes alternativas de dados, vídeo e voz", afirma.

Rumo ao desastre?

Brakel salienta que, embora "nos tenhamos tornado um pouco como 'a organização das cartas'", o FLI foi fundado em 2014 e tem trabalhado em três grandes áreas de risco a nível civil: inteligência artificial, biotecnologia e armas nucleares.

No seu website, o FLI tem um vídeo particularmente impressionante, um relato fictício, produzido de forma dispendiosa, de uma catástrofe global da inteligência artificial no ano 2032. No meio das tensões entre Taiwan e a China, a dependência militar da IA para a tomada de decisões conduz a uma guerra nuclear total, terminando o vídeo com o planeta iluminado por armas nucleares.

Brakel acredita que nos aproximámos deste tipo de cenário.

"A integração da inteligência artificial no comando e controlo militar ainda está a progredir, especialmente nas grandes potências. No entanto, também vejo um maior desejo dos Estados de regulamentar, especialmente quando se olha para a autonomia dos sistemas de armas convencionais", afirmou.

O próximo ano também parece ser promissor para a regulamentação da autonomia em sistemas como drones, submarinos e tanques, acrescentou.

"Espero que isso também permita que as grandes potências cheguem a acordos para evitar acidentes no comando e controlo nuclear, que é um nível mais sensível do que as armas convencionais."

Regulamentação a caminho

Embora as principais empresas de inteligência artificial não tenham feito uma pausa nas suas experiências, os seus líderes reconheceram abertamente os riscos profundos que a IA e a automação representam para a humanidade.

PUBLICIDADE

O CEO da OpenAI, Sam Altman, apelou aos políticos norte-americanos no início deste ano para estabelecerem uma regulamentação governamental da IA, revelando que os seus "piores receios são que nós (...), a indústria tecnológica, causemos danos significativos ao mundo". Isso poderia acontecer de "muitas maneiras diferentes", acrescentou. Defendeu a criação de uma agência norte-americana ou mundial que licencie os sistemas de IA mais potentes.

A Europa pode, no entanto, vir a ser o líder na regulamentação da IA, com a Lei da IA da União Europeia em preparação.

Os pormenores finais ainda estão a ser trabalhados entre as instituições do bloco, tendo o Parlamento Europeu votado esmagadoramente com 499 votos a favor, 28 contra e 93 abstenções.

De acordo com a lei, os sistemas de inteligência artificial serão classificados em diferentes níveis com base no grau de risco, sendo os tipos mais arriscados proibidos e os sistemas de risco limitado exigindo certos níveis de transparência e supervisão.

"De um modo geral, estamos bastante satisfeitos com a lei", diz Brakel. "Um aspeto que defendemos desde o início, quando a lei foi proposta pela Comissão, é a necessidade de regulamentar os sistemas baseados em GPT. Na altura estávamos a falar de GPT3 em vez de 4 [modelos de transformadores da OpenAI], mas o princípio continua a ser o mesmo e enfrentamos muitos lóbis das grandes tecnologias contra isso.

PUBLICIDADE

"A narrativa é a mesma nos EUA e na União Europeia (UE): só os utilizadores dos sistemas de IA, os responsáveis pela sua implementação, sabem em que contexto estão a ser implementados."

Dá o exemplo de um hospital que utiliza um chatbot para o contacto com os doentes. "O hospital vai comprar o chatbot da OpenAI, não o vai construir. E se depois houver um erro pelo qual seja responsabilizado por ter dado um conselho médico que não devia, então é evidente que tem de compreender o tipo de produto que comprou. E parte dessa responsabilidade deve ser partilhada."

Enquanto a Europa aguarda a formulação final da Lei da IA da UE, a cimeira mundial sobre segurança da inteligência artificial, a 1 de novembro, deverá ser o próximo evento a fornecer algumas informações sobre a forma como os líderes mundiais irão abordar a regulamentação da IA num futuro próximo.

Partilhe esta notíciaComentários

Notícias relacionadas

Quatro inventores geniais que a história demorou a reconhecer

A maior bolsa de criptomoedas da Turquia foi pirateada

De um assistente virtual a avatares digitais: o que saber sobre as novas funcionalidades do TikTok baseadas em IA