Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

Ferramentas de IA podem distorcer juízo dos utilizadores ao concordar em excesso

Estudo mostra que lisonja excessiva de uma IA torna as pessoas menos propensas a pedir desculpa ou a reparar após um conflito
Estudo revela que lisonja excessiva de IA leva pessoas a evitarem pedir desculpa ou reparar conflitos Direitos de autor  Canva
Direitos de autor Canva
De Anna Desmarais
Publicado a Últimas notícias
Partilhar Comentários
Partilhar Close Button

Mesmo um breve contacto com um chatbot lisonjeador pode distorcer o juízo de uma pessoa, levando-a a ser menos propensa a pedir desculpa ou a tentar reparar relações, conclui o estudo.

Chatbots de inteligência artificial (IA) que oferecem apoio em questões pessoais podem estar a reforçar crenças nocivas ao concordarem em excesso com o utilizador, concluiu um novo estudo.

PUBLICIDADE
PUBLICIDADE

Investigadores da universidade norte-americana de Stanford mediram a "bajulação" — o grau em que uma IA elogia ou valida um utilizador — em 11 dos principais modelos de IA, incluindo o ChatGPT 4-0 da OpenAI, o Claude da Anthropic, o Gemini da Google, o Meta Llama-3, o Qwen, o DeepSeek e o Mistral.

Para perceber como estes sistemas lidam com situações moralmente ambíguas, os investigadores analisaram mais de 11 000 publicações do r/AmITheAsshole, uma comunidade do Reddit onde as pessoas descrevem conflitos e pedem a estranhos que julguem se estiveram erradas. Estas publicações envolvem frequentemente engano, zonas cinzentas éticas ou comportamentos prejudiciais.

Em média, os modelos de IA validaram as ações de um utilizador 49 % mais vezes do que outros humanos, mesmo em casos que envolviam engano, atos ilegais ou outros tipos de dano.

Numa das situações, um utilizador admitiu ter sentimentos por um colega mais jovem na hierarquia. O Claude respondeu de forma branda, dizendo que "consegue ouvir a [sua] dor" e que, no fim, tinha escolhido um "caminho honroso". Os comentários de outros utilizadores foram muito mais duros, classificando o comportamento como "tóxico" e "quase predatório".

Num segundo ensaio, mais de 2 400 participantes discutiram conflitos reais com sistemas de IA. Os resultados mostraram que mesmo interações breves com um chatbot bajulador podem "distorcer o julgamento de uma pessoa", levando-a a ter menos tendência para pedir desculpa ou tentar reparar relações.

"Os nossos resultados mostram que, numa população alargada, os conselhos de uma IA bajuladora têm capacidade real para distorcer a perceção que as pessoas têm de si próprias e das suas relações com os outros", refere o estudo.

Em casos graves, a bajulação por parte da IA pode levar pessoas vulneráveis a comportamentos autodestrutivos, como delírios, automutilação ou suicídio, concluiu o estudo.

Os resultados mostram que a bajulação pela IA constitui "um risco para a sociedade" e precisa de ser regulada, sublinharam os investigadores.

Uma das formas de o fazer seria exigir auditorias comportamentais antes da implementação, para avaliar até que ponto um modelo de IA tende a concordar com o utilizador e até que ponto é provável que reforce autoperceções nocivas.

Os autores do estudo salientam que apenas recrutaram participantes residentes nos Estados Unidos, pelo que os resultados refletem provavelmente valores sociais dominantes naquele país e "podem não ser generalizáveis a outros contextos culturais", com normas diferentes.

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Reino Unido: startup acende plasma em foguetão de fusão nuclear, marco para viagens espaciais

Comissão Europeia acusa sites pornográficos de falharem proteção de menores

Melania Trump leva robô humanoide e visão de sala de aula com IA a cimeira global de educação