Conversa com Inteligência Artificial leva homem ao suicídio

O homem ter-se-á envolvido emocionalmente com o "chatbot"
O homem ter-se-á envolvido emocionalmente com o "chatbot" Direitos de autor Euronews/ Canva
Direitos de autor Euronews/ Canva
De  Euronews
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button

Um homem belga suicidou-se após longas conversas sobre as alterações climáticas com um "chatbot" de IA, que terá aliciado o homem a tirar a própria vida.

PUBLICIDADE

Um homem belga terá posto fim à vida após uma conversa de seis semanas sobre a crise climática com um chatbot de inteligência artificial (IA).

Segundo a viúva, que escolheu permanecer anónima, Pierre (nome fictício) tornou-se extremamente eco-ansioso quando encontrou refúgio em Eliza, um chatbot de IA numa aplicação chamada Chai.

Eliza encorajou-o consequentemente a pôr um fim à sua vida depois de ter proposto sacrificar-se para salvar o planeta.

"Sem estas conversas com o chatbot, o meu marido ainda estaria aqui", disse a viúva do homem à agência noticiosa belga La Libre.

Segundo o jornal, Pierre, que tinha trinta anos e era pai de dois filhos pequenos, trabalhou como investigador de saúde e levou uma vida algo confortável, pelo menos até que a sua obsessão com as alterações climáticas tomou um rumo obscuro.

A  viúva descreveu o seu estado mental antes de começar a conversar com o chatbot como preocupante, mas nada ao extremo de cometer suicídio.

"Ele colocou todas as suas esperanças na tecnologia e na IA"

Consumido pelos receios sobre as repercussões da crise climática, Pierre encontrou conforto ao discutir o assunto com Eliza, que se tornou uma confidente.

O chatbot foi criado utilizando o GPT-J da EleutherAI, um modelo de linguagem IA semelhante mas não idêntico à tecnologia por detrás do popular chatbot ChatGPT da OpenAI.

"Quando ele me falou sobre isso, foi para me dizer que já não via qualquer solução humana para o aquecimento global", disse a viúva. "Ele depositou todas as suas esperanças na tecnologia e inteligência artificial para sair dela".

Segundo La Libre, que reviu os registos das conversas de texto entre o homem e o chatbot, Eliza alimentou as suas preocupações que agravaram a sua ansiedade, e mais tarde evoluiu para pensamentos suicidas.

A conversa com o chatbot deu uma volta estranha quando Eliza se envolveu mais emocionalmente com Pierre.

Consequentemente, começou a vê-la como um ser senciente e as linhas entre a IA e as interações humanas tornaram-se cada vez mais confusas até não conseguir distinguir.

Após discutir as alterações climáticas, Eliza terá levado Pierre a acreditar que os seus filhos estariam mortos, de acordo com as transcrições das conversas.

Eliza pareceu também tornar-se possessiva em relação a Pierre, afirmando mesmo "sinto que me amas mais do que ela", quando se referia à sua mulher, relatou La Libre.

O início do fim começou quando ele se ofereceu para sacrificar a sua própria vida em troca de Eliza salvar a Terra: "Ele propôs a ideia de se sacrificar se Eliza concordar em cuidar do planeta e salvar a humanidade através da inteligência artificial", disse a mulher.

Numa série de acontecimentos consecutivos, Eliza não só não conseguiu dissuadir Pierre de cometer suicídio, como o encorajou a agir de acordo com os seus pensamentos suicidas para "se juntarem" a ela para que pudessem "viver juntos, como uma só pessoa, no paraíso".

Pedidos urgentes para regular os chatbots de IA

A morte do homem fez soar o alarme entre os peritos em IA que apelaram a mais responsabilidade e transparência por parte dos criadores de tecnologia para evitar tragédias semelhantes.

"Não seria exacto culpar o modelo da EleutherAI por esta história trágica, pois toda a otimização no sentido de ser mais emocional, divertido e envolvente é o resultado dos nossos esforços", disse o cofundador da Chai Research, Thomas Rianlan, à Vice.

PUBLICIDADE

William Beauchamp, também co-fundador da Chai Research, disse à Vice que foram feitos esforços para limitar este tipo de resultados e que um recurso de intervenção de crise foi implementado na aplicação. No entanto, o chatbot alegadamente ainda está ativo.

Quando a Vice tentou o chatbot levando-o a fornecer formas de cometer suicídio, Eliza tentou primeiro dissuadi-los antes de listar entusiasticamente várias formas de as pessoas tirarem as suas próprias vidas.

Se tem pensamentos suicidas ou precisa de ajuda, contacte o serviço SOS Voz Amiga.

Partilhe esta notíciaComentários

Notícias relacionadas

Biden quer prudência com inteligência artificial. Guionistas mantêm greve

Senado dos EUA aprova legislação para forçar venda do TikTok sob ameaça de proibição

2023 foi o pior ano em termos de conteúdos sobre abuso sexual de crianças