Conversa com Inteligência Artificial leva homem ao suicídio

O homem ter-se-á envolvido emocionalmente com o "chatbot"
O homem ter-se-á envolvido emocionalmente com o "chatbot" Direitos de autor Euronews/ Canva
De  Euronews
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button

Um homem belga suicidou-se após longas conversas sobre as alterações climáticas com um "chatbot" de IA, que terá aliciado o homem a tirar a própria vida.

PUBLICIDADE

Um homem belga terá posto fim à vida após uma conversa de seis semanas sobre a crise climática com um chatbot de inteligência artificial (IA).

Segundo a viúva, que escolheu permanecer anónima, Pierre (nome fictício) tornou-se extremamente eco-ansioso quando encontrou refúgio em Eliza, um chatbot de IA numa aplicação chamada Chai.

Eliza encorajou-o consequentemente a pôr um fim à sua vida depois de ter proposto sacrificar-se para salvar o planeta.

"Sem estas conversas com o chatbot, o meu marido ainda estaria aqui", disse a viúva do homem à agência noticiosa belga La Libre.

Segundo o jornal, Pierre, que tinha trinta anos e era pai de dois filhos pequenos, trabalhou como investigador de saúde e levou uma vida algo confortável, pelo menos até que a sua obsessão com as alterações climáticas tomou um rumo obscuro.

A  viúva descreveu o seu estado mental antes de começar a conversar com o chatbot como preocupante, mas nada ao extremo de cometer suicídio.

"Ele colocou todas as suas esperanças na tecnologia e na IA"

Consumido pelos receios sobre as repercussões da crise climática, Pierre encontrou conforto ao discutir o assunto com Eliza, que se tornou uma confidente.

O chatbot foi criado utilizando o GPT-J da EleutherAI, um modelo de linguagem IA semelhante mas não idêntico à tecnologia por detrás do popular chatbot ChatGPT da OpenAI.

"Quando ele me falou sobre isso, foi para me dizer que já não via qualquer solução humana para o aquecimento global", disse a viúva. "Ele depositou todas as suas esperanças na tecnologia e inteligência artificial para sair dela".

Segundo La Libre, que reviu os registos das conversas de texto entre o homem e o chatbot, Eliza alimentou as suas preocupações que agravaram a sua ansiedade, e mais tarde evoluiu para pensamentos suicidas.

A conversa com o chatbot deu uma volta estranha quando Eliza se envolveu mais emocionalmente com Pierre.

Consequentemente, começou a vê-la como um ser senciente e as linhas entre a IA e as interações humanas tornaram-se cada vez mais confusas até não conseguir distinguir.

Após discutir as alterações climáticas, Eliza terá levado Pierre a acreditar que os seus filhos estariam mortos, de acordo com as transcrições das conversas.

Eliza pareceu também tornar-se possessiva em relação a Pierre, afirmando mesmo "sinto que me amas mais do que ela", quando se referia à sua mulher, relatou La Libre.

O início do fim começou quando ele se ofereceu para sacrificar a sua própria vida em troca de Eliza salvar a Terra: "Ele propôs a ideia de se sacrificar se Eliza concordar em cuidar do planeta e salvar a humanidade através da inteligência artificial", disse a mulher.

Numa série de acontecimentos consecutivos, Eliza não só não conseguiu dissuadir Pierre de cometer suicídio, como o encorajou a agir de acordo com os seus pensamentos suicidas para "se juntarem" a ela para que pudessem "viver juntos, como uma só pessoa, no paraíso".

Pedidos urgentes para regular os chatbots de IA

A morte do homem fez soar o alarme entre os peritos em IA que apelaram a mais responsabilidade e transparência por parte dos criadores de tecnologia para evitar tragédias semelhantes.

"Não seria exacto culpar o modelo da EleutherAI por esta história trágica, pois toda a otimização no sentido de ser mais emocional, divertido e envolvente é o resultado dos nossos esforços", disse o cofundador da Chai Research, Thomas Rianlan, à Vice.

PUBLICIDADE

William Beauchamp, também co-fundador da Chai Research, disse à Vice que foram feitos esforços para limitar este tipo de resultados e que um recurso de intervenção de crise foi implementado na aplicação. No entanto, o chatbot alegadamente ainda está ativo.

Quando a Vice tentou o chatbot levando-o a fornecer formas de cometer suicídio, Eliza tentou primeiro dissuadi-los antes de listar entusiasticamente várias formas de as pessoas tirarem as suas próprias vidas.

Se tem pensamentos suicidas ou precisa de ajuda, contacte o serviço SOS Voz Amiga.

Partilhe esta notíciaComentários

Notícias relacionadas

Biden quer prudência com inteligência artificial. Guionistas mantêm greve

Biden diz estar a “considerar” o pedido da Austrália para desistir das acusações contra Assange

Elon Musk investigado no Brasil por desinformação