Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

Vídeos gerados por IA visam minar moral dos soldados enquanto se arrasta a guerra da Rússia na Ucrânia

Imagens de vídeos sintéticos de soldados ucranianos que circulam nas redes sociais.
Imagens de vídeos sintéticos de soldados ucranianos que circulam nas redes sociais. Direitos de autor  @Sensity, TikTok, Telegram
Direitos de autor @Sensity, TikTok, Telegram
De Estelle Nilsson-Julien & Tamsin Paternoster
Publicado a
Partilhar Comentários
Partilhar Close Button
Copiar/colar o link embed do vídeo: Copy to clipboard Link copiado!

Moscovo está a utilizar vídeos de soldados ucranianos gerados por IA para retratar o país como fraco e minar a confiança no seu comando central.

Um vídeo publicado nas redes sociais mostra um soldado ucraniano desesperado a rodar a sua câmara para revelar trincheiras repletas de corpos de soldados mortos e feridos. Estes vídeos revelam a realidade arrepiante vivida por muitos ucranianos que lutam contra as tropas russas na linha da frente - uma componente fundamental da guerra moderna.

PUBLICIDADE
PUBLICIDADE

No entanto, na realidade, estas imagens amplamente partilhadas são de facto geradas por IA, tal como verificado pela empresa de deteção de IA forense Sensity AI.

Os investigadores da Sensity alertam para o facto de os deepfakes estarem a ser utilizados para manipular a opinião pública e minar a confiança nas forças armadas, com base em vídeos autênticos de soldados ucranianos que documentam a sua vida quotidiana a partir do terreno.

Os clips são feitos para parecerem autênticas filmagens da linha da frente. Por exemplo, num outro vídeo publicado nas redes sociais, pode ver-se um soldado a criticar a liderança militar do exército ucraniano.

"Não quero servir com eles", diz o soldado no vídeo. "E também não preciso deles".

A Sensity encontrou mais de 1.000 vídeos semelhantes espalhados pelas redes sociais, identificando um conjunto de dados central de 60 vídeos manipulados por inteligência artificial.

Estes vídeos incluem rostos gerados por IA, bem como vozes não naturais. Nalguns casos, as imagens autênticas são combinadas com elementos gerados por IA, o que torna mais difícil detetar inconsistências.

Do TikTok ao Pravda

De acordo com a Sensity, existe um padrão consistente nestes vídeos para garantir que são amplamente difundidos nas redes sociais, inundando o feed dos utilizadores. No lote analisado pela Sensity, os vídeos são normalmente carregados em plataformas como o TikTok ou o Telegram a partir de contas recém-criadas ou anónimas.

Depois de começarem a atrair o envolvimento dos utilizadores (visualizações, gostos e comentários), são repostados em plataformas como o X, o Facebook, o Instagram e o YouTube. Nestas plataformas, os algoritmos recompensam os conteúdos com carga emocional, espalhando-os nas linhas de tempo dos utilizadores.

Este vídeo, em que soldados ucranianos dizem não ter recebido comunicação do seu comando, foi feito com tecnologia de troca de rostos.
Este vídeo, em que soldados ucranianos dizem não ter recebido qualquer comunicação do seu comando, foi feito com tecnologia de troca de rostos. Cleared

Uma vez que a narrativa circula nas redes sociais, a Sensity relata que bloggers militares pró-russos ou sites de comunicação social pró-Kremlin, como a rede Pravda, recolhem o conteúdo.

Minar a moral

Embora os vídeos sejam diferentes, apresentam narrativas semelhantes com o objetivo de influenciar a forma como a guerra é vista.

Entre estas narrativas incluem-se a de soldados desesperados com a situação na linha da frente, afirmações de que a liderança militar ucraniana é inadequada ou inexistente, bem como alegações de má gestão do exército ucraniano.

Muitos destes vídeos também têm como objetivo normalizar a rendição, mostrando soldados ucranianos a afirmarem que abandonar os seus postos é a única forma de saírem da guerra.

O objetivo destes vídeos é minar a confiança nas instituições e no comando militar da Ucrânia, bem como enfraquecer o moral, de acordo com o fundador da Sensity, Francesco Cavalli.

"O verdadeiro perigo destes vídeos em plataformas como o TikTok e o Meta não é simplesmente o facto de alguns utilizadores poderem acreditar neles, mas sim o facto de poderem moldar a perceção em grande escala, injetar confusão em acontecimentos de rápida evolução e corroer gradualmente a confiança naquilo que as pessoas veem", afirmou.

"O medo antigo era um vídeo falso de um presidente. A nova realidade são milhares de vídeos sintéticos dirigidos a públicos mais pequenos, em que não é necessário que um único clip se torne viral para ser eficaz".

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Como um vazio de informação sobre a captura de Maduro foi preenchido com deepfakes e IA

Vídeos gerados por IA visam minar moral dos soldados enquanto se arrasta a guerra da Rússia na Ucrânia

O que é que sabemos sobre o navio ABINSK e porque é que não foi mandado parar?