Um fluxo em tempo real de imagens e vídeos gerados por IA sobre a captura de Maduro pelas forças norte-americanas, no sábado, foi partilhado por figuras públicas e obteve milhões de visualizações em toda a Europa.
Pouco depois do presidente dos Estados Unidos, Donald Trump, ter anunciado um "ataque em grande escala" à Venezuela, no sábado, as redes sociais europeias foram inundadas com imagens enganadoras, geradas por IA, a propósito da captura de Nicolás Maduro, mas também com vídeos de venezuelanos a celebrar em todo o mundo.
No TikTok, no Instagram e no X, proliferaram imagens alteradas ou geradas por IA, filmagens antigas reaproveitadas como recentes e vídeos fora de contexto.
Muitos deles acumularam milhões de visualizações em todas as plataformas e foram partilhados por figuras públicas, incluindo o próprio Trump, o proprietário do X, Elon Musk, o filho do ex-presidente brasileiro, Flávio Bolsonaro, e, em Portugal, a conta oficial do partido de extrema-direita Chega.
Alguns especialistas sugeriram que este foi um dos primeiros incidentes em que imagens geradas por IA de uma importante figura pública política foram criadas em tempo real, à medida que as notícias se desenrolavam.
Mas para outros, o que foi único nesta onda de informações falsas não foi a sua escala, mas o facto de tantas pessoas - incluindo figuras públicas - terem caído na armadilha.
Imagem criada por artista de IA inunda plataformas
A 3 de janeiro, as forças especiais norte-americanas capturaram o antigo líder da Venezuela e a sua mulher numa operação relâmpago. Maduro enfrenta acusações federais de tráfico de droga, das quais se declarou inocente.
Logo após a sua captura, várias imagens de Maduro apareceram nas redes sociais. A equipa de verificação de factos da Euronews, The Cube, encontrou exemplos da imagem abaixo partilhada em espanhol, italiano, francês e polaco
Uma imagem de Maduro a desembarcar de um avião foi partilhada pela conta oficialdo partido de extrema-direita português Chega, bem como pelo fundador do partido, André Ventura, e outros dos seus membros. Também foi apresentada por vários meios de comunicação online como sendo uma fotografia real.
À medida que a imagem se disseminava rapidamente na Internet, os verificadores de factos notaram que, quando a fotografia foi analisada através da ferramenta de verificação SynthID, da Gemini, continha marcas de água digitais que indicavam que toda ou parte da imagem tinha sido gerada ou editada com a IA da Google.
A análise do Google Gemini concluiu que "a maior parte ou a totalidade [da imagem] foi gerada ou editada com a IA da Google".
De acordo com a Detesia, uma empresa alemã especializada em tecnologia de deteção de deepfake, os seus modelos de IA encontraram "provas substanciais" de que a imagem foi gerada por IA.
De acordo com a Detesia, uma startup alemã especializada em tecnologia de deteção de deepfakes, os seus modelos de IA encontraram "provas substanciais" de que a imagem foi gerada por IA. Versões posteriores mostraram sinais óbvios de geração por via de ferramentas de IA, incluindo imagens de soldados com três mãos e de Maduro coberto de sangue.
A imagem, que muito provavelmente foi gerada por IA, obteve milhões de visualizações nas plataformas de redes sociais, incluindo uma publicação espanhola, no X, que teve 2,6 milhões de visualizações por si só.
De acordo com Tal Hagin, analista de guerra de informação e professor de literacia mediática, os rápidos avanços na tecnologia de IA estão a tornar o desafio de identificar deepfakes ainda mais difícil.
"Já não estamos na fase em que [essa realidade] está a seis meses de distância, já estamos lá: incapazes de identificar o que é IA e o que não é."
Logo após a captura de Maduro, as pessoas tinham poucos detalhes e, em particular, nenhuma imagem. “Quando existe esse vazio de informação, ele precisa ser preenchido de alguma forma”, referiu Hagin.
"As pessoas começaram a carregar imagens geradas por IA de Maduro sob custódia das Forças Especiais dos EUA para preencher essa lacuna", concluiu.
Outra imagem, com mais de 4,6 milhões de visualizações, pretende mostrar Maduro sentado num avião de carga militar, de pijama branco.
A Newsguard, uma plataforma sediada nos EUA que monitoriza a fiabilidade das informações, informou que a imagem mostra sinais claros de ter sido gerada por IA, incluindo uma fileira dupla de janelas nos assentos dos passageiros.
A imagem também contradiz as evidências: Maduro foi transportado para fora da Venezuela de helicóptero para um navio da marinha norte-americana - nenhum dos dois parece ter imagens com fileiras duplas como na imagem.
Vídeos de manifestantes editados ou retirados do contexto
Pouco depois de terem circulado imagens falsas da detenção de Maduro, as redes sociais foram inundadas com imagens de manifestantes a celebrar a sua captura.
Algumas delas, incluindo uma partilhada por Musk que exibia venezuelanos a chorar de alegria, acumularam mais de 5,6 milhões de visualizações. Mas a presença de movimentos humanos não naturais, os tons de pele e a existência de matrículas anormais nos automóveis são alguns dos sinais de que estas terão sido geradas por IA.
As notícias vindas da Venezuela indicam que o estado de espírito do público é complexo, com uma parte da população a expressar alegria e esperança na sequência da captura de Maduro, bem como medo e incerteza sobre como será a transição de poder. Outros condenaram a intervenção dos EUA no seu país.
Apareceram vários vídeos de protestos com legendas enganadoras. Um deles, partilhado no X e que acumulou mais de um milhão de visualizações, foi publicado a 4 de janeiro com a legenda: "Isto é Caracas hoje. Enorme multidão em apoio a Maduro."
Na realidade, este vídeo é de uma marcha em que Maduro e os seus jovens apoiantes participaram no Palácio de Miraflores, em Caracas, em novembro de 2025.
Outro vídeo amplamente partilhado no X, em francês, mostra um homem numa varanda a apontar um telemóvel para uma multidão de pessoas, com a legenda: "Raramente vi um povo tão feliz como os venezuelanos por finalmente se livrarem de Maduro graças à intervenção americana". Ao fundo, pode ver-se fogo de artifício.
Hagin diz que existem vários indicadores que lançam dúvidas sobre a autenticidade do vídeo, incluindo o facto de os fogos de artifício parecerem vir de dentro da multidão e não produzirem um nível adequado de fumo. A imagem exibida no telemóvel também não corresponde à multidão abaixo.
O perigo desse volume de imagens geradas por IA, de acordo com Hagin, é que cria uma falsa sensação de histórico na mente das pessoas: "se eu vi cinco exemplos diferentes de Maduro sob custódia com roupas diferentes, tudo deve ser falso".
"Há vídeos que são 100% reais, sem qualquer razão para duvidar deles, e as pessoas continuam a dizer que são IA porque não querem que sejam verdadeiros", destacou Hagin.
"Verificar as informações leva tempo, garantir que você está correto no que está a dizer e, enquanto você está a tentar verificar este vídeo, as pessoas estão a produzir cada vez mais desinformação numa plataforma."
Falsas alegações sobre o ataque dos EUA à residência de Chávez
Além de imagens enganadoras, falsas alegações de que as forças dos EUA atingiram o mausoléu do ex-presidente venezuelano Hugo Chávez proliferaram online em vários idiomas — e foram, até, partilhadas pelo presidente colombiano Gustavo Petro.
Uma delas pretende mostrar o mausoléu bombardeado pelos militares americanos durante a sua operação de captura.
No entanto, como refere Hagin, a fotografia da direita é uma imagem manipulada por IA com base numa fotografia real do mausoléu de 2013, com a destruição a ter sido adicionada artificialmente.
A própria Fundação Hugo Chávez publicou um vídeo no Instagram, na segunda-feira, que mostrava o edifício intacto, com um vídeo de um telefone que exibia a data de domingo.