Mesmo um breve contacto com um chatbot lisonjeador pode distorcer o juízo de uma pessoa, levando-a a ser menos propensa a pedir desculpa ou a tentar reparar relações, conclui o estudo.
Chatbots de inteligência artificial (IA) que oferecem apoio em questões pessoais podem estar a reforçar crenças nocivas ao concordarem em excesso com o utilizador, concluiu um novo estudo.
Investigadores da universidade norte-americana de Stanford mediram a "bajulação" — o grau em que uma IA elogia ou valida um utilizador — em 11 dos principais modelos de IA, incluindo o ChatGPT 4-0 da OpenAI, o Claude da Anthropic, o Gemini da Google, o Meta Llama-3, o Qwen, o DeepSeek e o Mistral.
Para perceber como estes sistemas lidam com situações moralmente ambíguas, os investigadores analisaram mais de 11 000 publicações do r/AmITheAsshole, uma comunidade do Reddit onde as pessoas descrevem conflitos e pedem a estranhos que julguem se estiveram erradas. Estas publicações envolvem frequentemente engano, zonas cinzentas éticas ou comportamentos prejudiciais.
Em média, os modelos de IA validaram as ações de um utilizador 49 % mais vezes do que outros humanos, mesmo em casos que envolviam engano, atos ilegais ou outros tipos de dano.
Numa das situações, um utilizador admitiu ter sentimentos por um colega mais jovem na hierarquia. O Claude respondeu de forma branda, dizendo que "consegue ouvir a [sua] dor" e que, no fim, tinha escolhido um "caminho honroso". Os comentários de outros utilizadores foram muito mais duros, classificando o comportamento como "tóxico" e "quase predatório".
Num segundo ensaio, mais de 2 400 participantes discutiram conflitos reais com sistemas de IA. Os resultados mostraram que mesmo interações breves com um chatbot bajulador podem "distorcer o julgamento de uma pessoa", levando-a a ter menos tendência para pedir desculpa ou tentar reparar relações.
"Os nossos resultados mostram que, numa população alargada, os conselhos de uma IA bajuladora têm capacidade real para distorcer a perceção que as pessoas têm de si próprias e das suas relações com os outros", refere o estudo.
Em casos graves, a bajulação por parte da IA pode levar pessoas vulneráveis a comportamentos autodestrutivos, como delírios, automutilação ou suicídio, concluiu o estudo.
Os resultados mostram que a bajulação pela IA constitui "um risco para a sociedade" e precisa de ser regulada, sublinharam os investigadores.
Uma das formas de o fazer seria exigir auditorias comportamentais antes da implementação, para avaliar até que ponto um modelo de IA tende a concordar com o utilizador e até que ponto é provável que reforce autoperceções nocivas.
Os autores do estudo salientam que apenas recrutaram participantes residentes nos Estados Unidos, pelo que os resultados refletem provavelmente valores sociais dominantes naquele país e "podem não ser generalizáveis a outros contextos culturais", com normas diferentes.