Afirmou o gigante da IA que o adolescente não deveria ter utilizado a tecnologia sem consentimento dos pais nem ter contornado as medidas de proteção do ChatGPT.
OpenAI negou alegações de que é responsável pelo suicídio de um adolescente, depois de a família ter processado a empresa em agosto, alegando que o jovem de 16 anos usou o ChatGPT como seu “coach de suicídio”.
OpenAI, que desenvolve o popular chatbot de inteligência artificial (IA), respondeu pela primeira vez na terça-feira, numa resposta judicial apresentada no Tribunal Superior da Califórnia, em São Francisco.
Os pais de Adam Raine, de 16 anos, que morreu por suicídio em abril, intentaram uma ação contra a empresa e o seu CEO, Sam Altman.
Os pais alegam que Raine desenvolveu uma dependência psicológica do ChatGPT, que, dizem, o orientou a planear e a tirar a própria vida no início deste ano e até lhe escreveu uma nota de suicídio.
Registos de conversa no processo mostram que o ChatGPT desencorajou o adolescente de procurar ajuda em saúde mental, ofereceu ajuda para escrever uma nota de suicídio e aconselhou-o sobre a montagem de uma forca, segundo relatos da comunicação social.
No requerimento, OpenAI sustentou que o “evento trágico” se deveu ao “uso indevido, não autorizado, não intencional, imprevisível e/ou inadequado do ChatGPT por parte de Raine”, segundo a NBC News.
OpenAI acrescentou que o adolescente não deveria usar a tecnologia sem consentimento parental e não deveria contornar as medidas de proteção do ChatGPT.
OpenAI disse numa publicação de blogue que o objetivo "é tratar os processos judiciais relacionados com saúde mental com cuidado, transparência e respeito".
Referiu que a resposta ao processo da família Raine incluía "factos difíceis sobre a saúde mental de Adam e as suas circunstâncias de vida".
"As nossas mais profundas condolências à família Raine pela perda inimaginável", lê-se na publicação.
Jay Edelson, advogado da família Raine, disse à NBC News que OpenAI “ignorou abertamente todos os factos incriminatórios que apresentámos: como o GPT-4o foi lançado apressadamente, sem testes completos”.
Acrescentou que OpenAI alterou por duas vezes a sua Model Spec para exigir que o ChatGPT participasse em discussões sobre autolesão e que o ChatGPT dissuadiu Adam de contar aos pais a sua ideação suicida, ajudando ativamente a planear um “suicídio bonito”.
O caso de Raine é um de vários processos que alegam que o ChatGPT levou pessoas a comportamentos suicidas ou a delírios prejudiciais.
Desde setembro, OpenAI reforçou os controlos parentais, que incluem alertar os pais quando o filho aparenta estar angustiado.
Se pondera o suicídio e precisa de falar, por favor contacte a Befrienders Worldwide, uma organização internacional com linhas de apoio em 32 países. Visite befrienders.org para encontrar o número de telefone da sua localização.