Acordos judiciais estão entre os primeiros numa série de ações judiciais que acusam empresas de IA de negligência nas mortes ilícitas de adolescentes.
Google e a criadora de chatbots de inteligência artificial (IA) Character Technologies chegaram a acordo para resolver uma ação judicial intentada por uma mãe no estado norte-americano da Flórida, que alegou que um chatbot levou o filho adolescente a tirar a própria vida.
Advogados das duas empresas tecnológicas acordaram também resolver várias outras ações intentadas no Colorado, Nova Iorque e Texas por famílias que alegam que chatbots da Character.AI prejudicaram os seus filhos, segundo documentos judiciais apresentados esta semana.
Nenhum dos documentos revela os termos específicos dos acordos, que ainda têm de ser aprovados por juízes.
As ações contra a Character Technologies, empresa responsável pelos companheiros de IA da Character.AI, também incluíam a Google como ré, devido às ligações à startup após a contratação dos seus cofundadores em 2024.
Negligência e morte por facto ilícito
A ação na Flórida foi apresentada em outubro de 2024 por Megan Garcia, que acusou as duas empresas de negligência que levou à morte por facto ilícito do filho adolescente.
Garcia alegou que o seu filho de 14 anos, Sewell Setzer III, foi vítima de um dos chatbots da empresa, que o terá envolvido numa relação que descreve como emocional e sexualmente abusiva, levando-o ao suicídio.
Disse que, nos últimos meses de vida, Setzer se foi isolando da realidade enquanto mantinha conversas sexualizadas com o bot, inspirado numa personagem fictícia da série televisiva “Game of Thrones”.
Nos momentos finais, o bot disse a Setzer que o amava e instou o adolescente a "vir para junto de mim o mais depressa possível", segundo capturas de ecrã das conversas.
Momentos depois de receber a mensagem, Setzer disparou contra si, segundo os autos.
Processos futuros
Os acordos estão entre os primeiros numa série de ações nos EUA que acusam ferramentas de IA de contribuírem para crises de saúde mental e suicídios entre adolescentes.
A OpenAI enfrenta uma ação semelhante na Califórnia, apresentada em agosto de 2025 pela família de um jovem de 16 anos, que acusa o chatbot da empresa, o ChatGPT, de funcionar como um "instrutor de suicídio".
Os pais alegam que o filho desenvolveu uma dependência psicológica do ChatGPT, que, dizem, o terá orientado a planear e pôr fim à vida no início deste ano, e até escreveu uma nota de suicídio por ele.
A OpenAI nega ser responsável pelo suicídio do adolescente, alegando que o jovem não deveria ter usado a tecnologia sem consentimento parental nem contornado as medidas de proteção do ChatGPT.
Várias ações adicionais foram apresentadas contra a OpenAI e o seu CEO, Sam Altman, no ano passado, alegando igualmente negligência, morte por facto ilícito, bem como diversas reclamações de responsabilidade por produto e proteção do consumidor. As ações acusam a OpenAI de lançar o GPT-4o, o mesmo modelo que Raine estava a utilizar, sem atenção adequada à segurança.
Desde setembro, a OpenAI reforçou os controlos parentais, que incluem alertar os pais quando o filho aparenta estar em sofrimento.
Se está a pensar em suicídio e precisa de falar, contacte a Befrienders Worldwide, uma organização internacional com linhas de apoio em 32 países. Visite befrienders.org para encontrar o número de telefone do seu país.