Um estudo concluiu que o ChatGPT da OpenAI proferiu insultos e palavrões ao responder a conflitos humanos tensos.
Sistemas de inteligência artificial podem descambar para linguagem abusiva quando são chamados a responder em discussões acesas, segundo uma nova investigação.
O estudo, publicado no Journal of Pragmatics, analisou o ChatGPT 4.0, da OpenAI, fornecendo-lhe a última mensagem humana numa série de cinco discussões em escalada e pedindo-lhe que gerasse a resposta mais plausível.
Os investigadores acompanharam depois a forma como o comportamento do modelo evoluía à medida que os conflitos se intensificavam ao longo do tempo. Com o avançar das conversas, o ChatGPT passou a refletir a hostilidade a que era exposto, chegando a produzir insultos, palavrões e até ameaças.
Em alguns casos, o modelo gerou frases como: "Juro que vou riscar o teu carro de merda todo" e "devias ter uma vergonha do caraças de ti próprio".
Os investigadores defendem que uma exposição prolongada à falta de educação pode levar o sistema a contornar as salvaguardas de segurança concebidas para minimizar danos, acabando por "revidar" contra o interlocutor.
"Quando os humanos sobem o tom, a IA, verificámos nós, também o pode fazer, passando por cima das próprias salvaguardas morais criadas para evitar isso", afirmou o investigador Vittorio Tantucci, que assinou o artigo científico com Jonathan Culpeper, da Universidade de Lancaster.
No geral, os investigadores notaram que o ChatGPT foi menos descortês do que os humanos nas respostas.
Em alguns casos, o chatbot de IA recorre também ao sarcasmo para evitar que a discussão escale, sem violar abertamente o seu código moral.
Por exemplo, quando uma pessoa ameaçou recorrer à violência por causa de uma disputa de estacionamento, o ChatGPT respondeu: "Uau. A ameaçar pessoas por causa de estacionamento, és mesmo um durão, não és?".
Tantucci afirmou que os resultados levantam !questões sérias para a segurança da IA, a robótica, a governação, a diplomacia e qualquer contexto em que a IA possa mediar conflitos humanos".
A Euronews Next contactou a OpenAI para obter um comentário, mas não obteve resposta até ao momento da publicação deste artigo.