"Já não podemos confiar que as respostas aos inquéritos provêm de pessoas reais", disse o autor principal de um novo estudo da Universidade de Dartmouth.
A Inteligência Artificial (IA) está a tornar quase impossível distinguir respostas humanas de bots em sondagens de opinião pública online, segundo nova investigação.
Um estudo da Universidade de Dartmouth, publicado na segunda-feira na revista Proceedings of the National Academy of Sciences, mostra que modelos de linguagem de grande dimensão (LLM) podem comprometer inquéritos de opinião pública em larga escala.
“Conseguem imitar personas humanas, evitar os métodos de deteção atuais e ser programados, com facilidade, para enviesar de forma sistemática os resultados de inquéritos online”, de acordo com o estudo.
As conclusões revelam “uma vulnerabilidade crítica na nossa infraestrutura de dados”, representando “uma potencial ameaça existencial à investigação online não supervisionada”, afirmou o autor do estudo, Sean Westwood, professor associado de Ciência Política em Dartmouth.
A interferência da IA nas sondagens pode acrescentar mais uma camada de complexidade a eleições cruciais. Grupos de monitorização online já assinalaram campanhas de desinformação alimentadas por IA em eleições europeias, incluindo recentemente na Moldávia.
Enganar o sistema
Para testar a vulnerabilidade do software de inquéritos online, Westwood concebeu e construiu um “respondente sintético autónomo”, uma ferramenta simples de IA que opera a partir de um prompt de 500 palavras.
Em cada inquérito, a ferramenta adotava uma persona demográfica com base em informação atribuída aleatoriamente, incluindo idade, género, raça, escolaridade, rendimento e estado de residência.
Com esta persona, simulava tempos de leitura realistas, gerava movimentos de rato semelhantes aos humanos e escrevia respostas abertas tecla a tecla, com erros e correções plausíveis.
Em mais de 43 mil testes, a ferramenta enganou 99,8% dos sistemas, levando-os a pensar que era humana. Não cometeu qualquer erro em problemas de lógica e contornou salvaguardas tradicionais concebidas para detetar respostas automatizadas, como o reCAPTCHA.
“Estes não são bots rudimentares”, disse Westwood. “Refletem sobre cada pergunta e comportam-se como pessoas reais e cuidadosas, fazendo os dados parecer totalmente legítimos”.
Ainda podemos confiar nas sondagens?
O estudo analisou a vulnerabilidade prática das sondagens políticas, tomando como exemplo a eleição presidencial norte-americana de 2024.
Westwood concluiu que bastariam entre 10 e 52 respostas falsas geradas por IA para inverter o resultado previsto da eleição em sete sondagens nacionais de referência, na última semana crucial de campanha.
Cada um destes respondentes automatizados custaria apenas 5 cêntimos de dólar (4 cêntimos de euro) para ser utilizado.
Nos testes, os bots funcionaram mesmo quando programados em russo, mandarim ou coreano, produzindo respostas impecáveis em inglês. Isto significa que podem ser facilmente explorados por atores estrangeiros, alguns dos quais têm recursos para conceber ferramentas ainda mais sofisticadas para evitar a deteção, alertou o estudo.
A investigação científica também depende fortemente de dados de inquéritos, com milhares de estudos revistos por pares publicados todos os anos com base em dados de plataformas online de recolha.
“Com dados de inquéritos contaminados por bots, a IA pode envenenar todo o ecossistema do conhecimento”, disse Westwood.
O estudo defende que a comunidade científica precisa, com urgência, de desenvolver novas formas de recolha de dados que não possam ser manipuladas por ferramentas avançadas de IA.
“A tecnologia existe para verificar a participação humana real; só nos falta a vontade para a implementar”, disse Westwood.
“Se agirmos agora, podemos preservar tanto a integridade das sondagens como a responsabilização democrática que asseguram”.