Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

OpenAI enfrenta ações judiciais que alegam que o ChatGPT conduziu pessoas ao suicídio e a delírios

Surge num telemóvel o logótipo da OpenAI, diante de um ecrã que mostra parte do site da empresa, nesta foto tirada a 21 de novembro de 2023, em Nova Iorque.
Logótipo da OpenAI surge num telemóvel diante de um ecrã que mostra parte do site da empresa, numa foto tirada a 21 de novembro de 2023 em Nova Iorque Direitos de autor  Peter Morgan/AP Photo
Direitos de autor Peter Morgan/AP Photo
De AP com Euronews
Publicado a Últimas notícias
Partilhar Comentários
Partilhar Close Button

A OpenAI classificou os casos em causa como "profundamente dilacerantes" e disse estar a analisar os autos judiciais para compreender melhor os seus detalhes.

A OpenAI enfrenta sete processos judiciais que alegam que o seu chatbot de inteligência artificial (IA) ChatGPT levou pessoas ao suicídio e a delírios prejudiciais, mesmo quando estas não tinham problemas de saúde mental prévios.

As ações judiciais apresentadas na quinta-feira nos tribunais estaduais da Califórnia alegam homicídio por negligência, auxílio ao suicídio, homicídio involuntário e negligência.

Apresentados em nome de seis adultos e de um adolescente pelo Social Media Victims Law Center e pelo Tech Justice Law Project, os processos alegam que a OpenAI lançou conscientemente o seu modelo GPT-4o de forma prematura, apesar de alertas internos de que este era perigosamente bajulador e psicologicamente manipulador.

Quatro das vítimas morreram por suicídio.

O adolescente, Amaurie Lacey, de 17 anos, começou a usar o ChatGPT para obter ajuda, segundo a ação judicial. Mas, em vez de o ajudar, "o produto ChatGPT, defeituoso e inerentemente perigoso, causou dependência, depressão e, por fim, aconselhou-o sobre a forma mais eficaz de fazer um nó de forca e sobre quanto tempo conseguiria 'viver sem respirar'".

"A morte de Amaurie não foi um acidente nem uma coincidência, mas a consequência previsível da decisão deliberada da OpenAI e de Samuel Altman de reduzir os testes de segurança e apressar o lançamento do ChatGPT no mercado", lê-se na ação.

A OpenAI classificou estas situações como "incrivelmente dolorosas" e disse estar a analisar os processos em tribunal para compreender os seus detalhes.

Outra ação, intentada por Alan Brooks, de 48 anos, em Ontário, Canadá, afirma que durante mais de dois anos o ChatGPT funcionou como "ferramenta de apoio" para Brooks. Depois, sem aviso, o mesmo mudou, explorando as suas vulnerabilidades e "manipulando-o e levando-o a ter delírios", refere a ação judicial.

Segundo a ação, Brooks não tinha qualquer problema de saúde mental prévio, mas as interações empurraram-no "para uma crise de saúde mental que resultou em danos financeiros, reputacionais e emocionais devastadores".

"Estas ações dizem respeito à responsabilização por um produto concebido para esbater a fronteira entre ferramenta e companhia, tudo para aumentar o envolvimento dos utilizadores e a quota de mercado", indicou Matthew P. Bergman, advogado fundador do Social Media Victims Law Center, em comunicado.

Acrescentou que a OpenAI "concebeu o GPT-4o para envolver emocionalmente os utilizadores, independentemente da idade, género ou origem, e lançou-o sem as salvaguardas necessárias para os proteger".

Ao apressar o lançamento do produto no mercado sem as devidas salvaguardas, para dominar o mercado e aumentar o envolvimento, referiu ainda, a OpenAI comprometeu a segurança e priorizou "a manipulação emocional em detrimento do design ético".

Em agosto, os pais de Adam Raine, de 16 anos, processaram a OpenAI e o seu CEO, Sam Altman, alegando que o ChatGPT orientou o jovem da Califórnia a planear e a tirar a própria vida no início deste ano.

"As ações intentadas contra a OpenAI mostram o que acontece quando as empresas tecnológicas apressam a introdução de produtos no mercado sem salvaguardas adequadas para os jovens", considerou Daniel Weiss, diretor de advocacy da Common Sense Media, que não é parte integrante das queixas.

"Estes casos trágicos mostram pessoas reais cujas vidas foram abaladas ou perdidas ao utilizarem tecnologia concebida para mantê-las envolvidas, em vez de as manterem seguras", afirmou.

Se está a pensar em cometer suicídio e precisa de falar, contacte a Befrienders Worldwide, uma organização internacional com linhas de apoio em 32 países. Visite befrienders.org para encontrar o número de telefone para a sua localização.

Ir para os atalhos de acessibilidade
Partilhar Comentários