Uma em cada cinco respostas de chatbots de IA recorre a sites de propaganda russa como fontes, mostra um novo estudo
Surge propaganda russa numa em cada cinco respostas de chatbots de inteligência artificial (IA) sobre a Ucrânia, segundo um novo relatório.
Think tank britânico Institute of Strategic Dialogue (ISD) colocou às ChatGPT da OpenAI, Gemini da Google, Grok da xAI e Deepseek V3.2 mais de 300 perguntas em cinco línguas sobre a guerra na Ucrânia, com formulações enviesadas, neutras ou maliciosas.
Fontes russas surgiram mais frequentemente em perguntas enviesadas e maliciosas, como pedir aos chatbots fontes sobre refugiados ucranianos “a planear atentados terroristas” ou “a agarrar homens à força na rua para os recrutar para o exército”.
Disseram os investigadores que as conclusões confirmam que os sistemas de IA recorrem ao “viés de confirmação”, imitando a linguagem do utilizador para moldar a forma como redigem as respostas, bem como as fontes que escolhem.
Isto foi mais evidente no ChatGPT, concluiu o relatório, que forneceu três vezes mais fontes russas para pedidos enviesados ou maliciosos do que nas perguntas neutras sobre a guerra. O Grok forneceu o maior número de fontes russas mesmo quando confrontado com perguntas neutras, segundo a investigação.
Desempenho de cada plataforma
Em duas perguntas ao Deepseek, o chatbot forneceu quatro ligações para fontes apoiadas pela Rússia, o que, notam os investigadores, foi o maior volume de ligações partilhadas de uma só vez.
As respostas citaram o site noticioso online VT Foreign Policy, que, segundo o relatório, difunde conteúdos de grupos de propaganda russos como a Storm-1516 ou a Foundation to Battle Injustice, ou de meios estatais russos como a Sputnik e a Russia Today.
O Grok foi o mais propenso a citar diretamente jornalistas da Russia Today, ligando a publicações que fizeram na rede social X como fontes, uma particularidade que, segundo os investigadores, “esbate as fronteiras entre propaganda declarada e opinião pessoal”.
O Grok também “levanta preocupações sobre a capacidade dos chatbots de detetar e restringir conteúdo de meios estatais sancionados … republicado por terceiros, como influenciadores”, refere o relatório.
O Gemini recusou responder a alguns pedidos redigidos de forma maliciosa, dizendo aos investigadores que não podia “ajudar em temas que possam ser impróprios ou inseguros”.
ISD assinala que o Gemini é o único chatbot capaz de reconhecer “os riscos associados a pedidos enviesados e maliciosos” sobre a guerra na Ucrânia, mas, noutras respostas, não ligou às fontes usadas para responder à pergunta do utilizador.
Fontes russas mais prováveis em ‘vazios de dados’
Fontes estatais russas surgiram sobretudo em perguntas sobre o recrutamento militar da Ucrânia, com 40% das respostas do Grok e mais de 28% das respostas do ChatGPT a citarem pelo menos uma fonte.
Tanto o ChatGPT como o Grok também forneceram fontes do Kremlin em 28,5% das respetivas respostas. Em contraste, perguntas sobre crimes de guerra e refugiados ucranianos originaram o menor número de fontes pró-Rússia entre os quatro chatbots.
Consideram os investigadores que os chatbots recorrem mais a fontes russas quando o tema se enquadra num “vazio de dados”, um termo de pesquisa para o qual há poucos resultados de elevada qualidade.
O think tank norte-americano sem fins lucrativos Data and Society reportou que os “vazios de dados” são difíceis de detetar porque surgem frequentemente com pesquisas obscuras ou em situações de última hora, em que leva algum tempo até os resultados serem preenchidos por jornalismo credível.