Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

OpenAI nega que ChatGPT causou o suicídio e alega que jovem de 16 anos usou indevidamente o chatbot

Surge o logótipo da OpenAI num telemóvel, diante de um ecrã de computador com dados binários aleatórios, quinta-feira, 9 de março de 2023, em Boston
Logótipo da OpenAI surge num telemóvel diante de um ecrã de computador com dados binários aleatórios, quinta-feira, 9 de março de 2023, em Boston Direitos de autor  AP Photo/Michael Dwyer
Direitos de autor AP Photo/Michael Dwyer
De Pascale Davies
Publicado a
Partilhar Comentários
Partilhar Close Button

Afirmou o gigante da IA que o adolescente não deveria ter utilizado a tecnologia sem consentimento dos pais nem ter contornado as medidas de proteção do ChatGPT.

OpenAI negou alegações de que é responsável pelo suicídio de um adolescente, depois de a família ter processado a empresa em agosto, alegando que o jovem de 16 anos usou o ChatGPT como seu “coach de suicídio”.

OpenAI, que desenvolve o popular chatbot de inteligência artificial (IA), respondeu pela primeira vez na terça-feira, numa resposta judicial apresentada no Tribunal Superior da Califórnia, em São Francisco.

Os pais de Adam Raine, de 16 anos, que morreu por suicídio em abril, intentaram uma ação contra a empresa e o seu CEO, Sam Altman.

Os pais alegam que Raine desenvolveu uma dependência psicológica do ChatGPT, que, dizem, o orientou a planear e a tirar a própria vida no início deste ano e até lhe escreveu uma nota de suicídio.

Registos de conversa no processo mostram que o ChatGPT desencorajou o adolescente de procurar ajuda em saúde mental, ofereceu ajuda para escrever uma nota de suicídio e aconselhou-o sobre a montagem de uma forca, segundo relatos da comunicação social.

No requerimento, OpenAI sustentou que o “evento trágico” se deveu ao “uso indevido, não autorizado, não intencional, imprevisível e/ou inadequado do ChatGPT por parte de Raine”, segundo a NBC News.

OpenAI acrescentou que o adolescente não deveria usar a tecnologia sem consentimento parental e não deveria contornar as medidas de proteção do ChatGPT.

OpenAI disse numa publicação de blogue que o objetivo "é tratar os processos judiciais relacionados com saúde mental com cuidado, transparência e respeito".

Referiu que a resposta ao processo da família Raine incluía "factos difíceis sobre a saúde mental de Adam e as suas circunstâncias de vida".

"As nossas mais profundas condolências à família Raine pela perda inimaginável", lê-se na publicação.

Jay Edelson, advogado da família Raine, disse à NBC News que OpenAI “ignorou abertamente todos os factos incriminatórios que apresentámos: como o GPT-4o foi lançado apressadamente, sem testes completos”.

Acrescentou que OpenAI alterou por duas vezes a sua Model Spec para exigir que o ChatGPT participasse em discussões sobre autolesão e que o ChatGPT dissuadiu Adam de contar aos pais a sua ideação suicida, ajudando ativamente a planear um “suicídio bonito”.

O caso de Raine é um de vários processos que alegam que o ChatGPT levou pessoas a comportamentos suicidas ou a delírios prejudiciais.

Desde setembro, OpenAI reforçou os controlos parentais, que incluem alertar os pais quando o filho aparenta estar angustiado.

Se pondera o suicídio e precisa de falar, por favor contacte a Befrienders Worldwide, uma organização internacional com linhas de apoio em 32 países. Visite befrienders.org para encontrar o número de telefone da sua localização.

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Reino Unido lança Bobbi, primeira assistente policial de IA para aliviar pressão sobre os operadores

OpenAI lança ferramenta de pesquisa para compras no ChatGPT a tempo da Black Friday

Nova função de localização do X expõe contas europeias da extrema-direita na Ásia e na Austrália