Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

Estudo mostra que ChatGPT replica linguagem abusiva em discussões acesas

Estudo revela que ChatGPT recorre a palavrões, sarcasmo e linguagem abusiva para prolongar discussões
Estudo revela que ChatGPT recorre a palavrões, sarcasmo e linguagem abusiva para prolongar discussões Direitos de autor  Canva
Direitos de autor Canva
De Anna Desmarais
Publicado a Últimas notícias
Partilhar Comentários
Partilhar Close Button

Um estudo concluiu que o ChatGPT da OpenAI proferiu insultos e palavrões ao responder a conflitos humanos tensos.

Sistemas de inteligência artificial podem descambar para linguagem abusiva quando são chamados a responder em discussões acesas, segundo uma nova investigação.

PUBLICIDADE
PUBLICIDADE

O estudo, publicado no Journal of Pragmatics, analisou o ChatGPT 4.0, da OpenAI, fornecendo-lhe a última mensagem humana numa série de cinco discussões em escalada e pedindo-lhe que gerasse a resposta mais plausível.

Os investigadores acompanharam depois a forma como o comportamento do modelo evoluía à medida que os conflitos se intensificavam ao longo do tempo. Com o avançar das conversas, o ChatGPT passou a refletir a hostilidade a que era exposto, chegando a produzir insultos, palavrões e até ameaças.

Em alguns casos, o modelo gerou frases como: "Juro que vou riscar o teu carro de merda todo" e "devias ter uma vergonha do caraças de ti próprio".

Os investigadores defendem que uma exposição prolongada à falta de educação pode levar o sistema a contornar as salvaguardas de segurança concebidas para minimizar danos, acabando por "revidar" contra o interlocutor.

"Quando os humanos sobem o tom, a IA, verificámos nós, também o pode fazer, passando por cima das próprias salvaguardas morais criadas para evitar isso", afirmou o investigador Vittorio Tantucci, que assinou o artigo científico com Jonathan Culpeper, da Universidade de Lancaster.

No geral, os investigadores notaram que o ChatGPT foi menos descortês do que os humanos nas respostas.

Em alguns casos, o chatbot de IA recorre também ao sarcasmo para evitar que a discussão escale, sem violar abertamente o seu código moral.

Por exemplo, quando uma pessoa ameaçou recorrer à violência por causa de uma disputa de estacionamento, o ChatGPT respondeu: "Uau. A ameaçar pessoas por causa de estacionamento, és mesmo um durão, não és?".

Tantucci afirmou que os resultados levantam !questões sérias para a segurança da IA, a robótica, a governação, a diplomacia e qualquer contexto em que a IA possa mediar conflitos humanos".

A Euronews Next contactou a OpenAI para obter um comentário, mas não obteve resposta até ao momento da publicação deste artigo.

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Hackers invadem modelo de IA Mythos da Anthropic, considerado demasiado perigoso para ser lançado

Estudo mostra que ChatGPT replica linguagem abusiva em discussões acesas

"Divagações de um supervilão": "manifesto" da Palantir defende armas com IA e inferioridade cultural