A OpenAI classificou os casos em causa como "profundamente dilacerantes" e disse estar a analisar os autos judiciais para compreender melhor os seus detalhes.
A OpenAI enfrenta sete processos judiciais que alegam que o seu chatbot de inteligência artificial (IA) ChatGPT levou pessoas ao suicídio e a delírios prejudiciais, mesmo quando estas não tinham problemas de saúde mental prévios.
As ações judiciais apresentadas na quinta-feira nos tribunais estaduais da Califórnia alegam homicídio por negligência, auxílio ao suicídio, homicídio involuntário e negligência.
Apresentados em nome de seis adultos e de um adolescente pelo Social Media Victims Law Center e pelo Tech Justice Law Project, os processos alegam que a OpenAI lançou conscientemente o seu modelo GPT-4o de forma prematura, apesar de alertas internos de que este era perigosamente bajulador e psicologicamente manipulador.
Quatro das vítimas morreram por suicídio.
O adolescente, Amaurie Lacey, de 17 anos, começou a usar o ChatGPT para obter ajuda, segundo a ação judicial. Mas, em vez de o ajudar, "o produto ChatGPT, defeituoso e inerentemente perigoso, causou dependência, depressão e, por fim, aconselhou-o sobre a forma mais eficaz de fazer um nó de forca e sobre quanto tempo conseguiria 'viver sem respirar'".
"A morte de Amaurie não foi um acidente nem uma coincidência, mas a consequência previsível da decisão deliberada da OpenAI e de Samuel Altman de reduzir os testes de segurança e apressar o lançamento do ChatGPT no mercado", lê-se na ação.
A OpenAI classificou estas situações como "incrivelmente dolorosas" e disse estar a analisar os processos em tribunal para compreender os seus detalhes.
Outra ação, intentada por Alan Brooks, de 48 anos, em Ontário, Canadá, afirma que durante mais de dois anos o ChatGPT funcionou como "ferramenta de apoio" para Brooks. Depois, sem aviso, o mesmo mudou, explorando as suas vulnerabilidades e "manipulando-o e levando-o a ter delírios", refere a ação judicial.
Segundo a ação, Brooks não tinha qualquer problema de saúde mental prévio, mas as interações empurraram-no "para uma crise de saúde mental que resultou em danos financeiros, reputacionais e emocionais devastadores".
"Estas ações dizem respeito à responsabilização por um produto concebido para esbater a fronteira entre ferramenta e companhia, tudo para aumentar o envolvimento dos utilizadores e a quota de mercado", indicou Matthew P. Bergman, advogado fundador do Social Media Victims Law Center, em comunicado.
Acrescentou que a OpenAI "concebeu o GPT-4o para envolver emocionalmente os utilizadores, independentemente da idade, género ou origem, e lançou-o sem as salvaguardas necessárias para os proteger".
Ao apressar o lançamento do produto no mercado sem as devidas salvaguardas, para dominar o mercado e aumentar o envolvimento, referiu ainda, a OpenAI comprometeu a segurança e priorizou "a manipulação emocional em detrimento do design ético".
Em agosto, os pais de Adam Raine, de 16 anos, processaram a OpenAI e o seu CEO, Sam Altman, alegando que o ChatGPT orientou o jovem da Califórnia a planear e a tirar a própria vida no início deste ano.
"As ações intentadas contra a OpenAI mostram o que acontece quando as empresas tecnológicas apressam a introdução de produtos no mercado sem salvaguardas adequadas para os jovens", considerou Daniel Weiss, diretor de advocacy da Common Sense Media, que não é parte integrante das queixas.
"Estes casos trágicos mostram pessoas reais cujas vidas foram abaladas ou perdidas ao utilizarem tecnologia concebida para mantê-las envolvidas, em vez de as manterem seguras", afirmou.
Se está a pensar em cometer suicídio e precisa de falar, contacte a Befrienders Worldwide, uma organização internacional com linhas de apoio em 32 países. Visite befrienders.org para encontrar o número de telefone para a sua localização.