A IA generativa está a alimentar a propagação de pornografia falsa na Internet

Os avanços tecnológicos tornaram mais fácil aos maus actores criar conteúdos "deepfake
Os avanços tecnológicos tornaram mais fácil aos maus actores criar conteúdos "deepfake Direitos de autor Canva
Direitos de autor Canva
De  Luke Hurst
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button
Artigo publicado originalmente em inglês

Uma análise revelou que a esmagadora maioria dos vídeos manipulados encontrados online são pornográficos.

PUBLICIDADE

Houve um aumento de 550 por cento no número de vídeos deepfake encontrados online este ano em comparação com 2019, segundo uma análise, sendo a grande maioria deles vídeos pornográficos.

O surgimento de novas tecnologias, como a inteligência artificial generativa (IA), levou a um grande aumento na criação de conteúdo deepfake, que é um conteúdo digitalmente alterado ou gerado que pretende representar uma pessoa ou cenário real, seja por meio de vídeo, imagem ou áudio.

As vítimas de pornografia "deepfake" descreveram como o facto de serem retratados nestes cenários fictícios pode destruir vidas, tendo uma delas falado de "uma sentença para toda a vida".

Os conteúdos deepfake são criados através de algoritmos de aprendizagem automática que podem produzir conteúdos hiper-realistas. Podem ser utilizados para atingir as vítimas, chantagear pessoas ou como forma de manipulação criminal ou política.

Um relatório abrangente sobre os deepfakes, em 2023, concluiu que a pornografia deepfake representa 98% de todos os vídeos deepfake encontrados em linha, e que 99% das vítimas visadas pela pornografia deepfake são mulheres.

Os analistas de um site que visa proteger as pessoas contra fraudes de identidade online - homesecurityheroes.com - estudaram 95.820 vídeos deepfake, 85 canais online e mais de 100 sites ligados ao ecossistema deepfake. 

Uma das principais conclusões do relatório é que agora pode levar menos de 25 minutos, e não custa nada, criar um vídeo pornográfico deepfake de um minuto de duração de qualquer pessoa usando uma única imagem clara do rosto da vítima.

A maioria dos vídeos de pornografia deepfake analisados eram de mulheres sul-coreanas. A seguir à Coreia do Sul, as nacionalidades mais representadas em termos de vítimas de pornografia deepfake foram os Estados Unidos, o Japão e o Reino Unido.

Epidemia de pornografia deepfake na Coreia do Sul

A Coreia do Sul é, de longe, a nacionalidade com mais vítimas de pornografia deepfake, algo que os analistas do relatório atribuem à popularidade global do K-pop. Três das quatro integrantes do Blackpink, considerado o maior grupo pop feminino da Coreia, estão entre os 10 indivíduos mais visados.

"Os ídolos do K-pop são conhecidos pela sua ampla visibilidade e pelo número de fãs, tanto na Coreia do Sul como a nível internacional", explicou Chris Nguyen, diretor de análise de investigação do relatório. "Os seus perfis públicos e a sua extensa base de fãs significam que a criação e a distribuição de pornografia deepfake que os envolve têm mais probabilidades de atingir um público mais vasto.

Para além da grande visibilidade, existe também uma procura "excecionalmente elevada" de conteúdos com ídolos do K-pop, afirmou Nguyen. "Alguns exploram esta procura criando conteúdos deepfake explícitos, sobretudo em sítios Web dedicados a adultos, com o objetivo de atrair as atenções e gerar mais tráfego".

Nguyen salientou ainda que a regulamentação rigorosa da Coreia do Sul em matéria de pornografia está provavelmente a contribuir para a criação e distribuição deste tipo de conteúdos.

Pode estar relacionado com o "efeito Streisand", um resultado não intencional da tentativa de ocultar, apagar ou censurar informações. Nesses casos, o resultado é "sair o tiro pela culatra", uma vez que, na verdade, amplifica a consciencialização e o interesse por essa informação."

Deepfakes espalhados pela Internet

Ao analisar a prevalência da pornografia "deepfake", os analistas descobriram que sete dos dez sites pornográficos mais visitados alojavam conteúdos "deepfake".

Entre os dez principais sítios Web dedicados à pornografia deepfake, houve mais de 303 milhões de visualizações de vídeos, o que, segundo os analistas, mostra como este tipo de conteúdo se está a tornar generalizado e popular.

Os investigadores pedem mais debates sobre as atitudes em relação a este tipo de conteúdos, dando especial atenção às considerações éticas da sua criação. Atribuem o aumento súbito dos conteúdos "deepfake" a dois fatores. 

Em primeiro lugar, o aparecimento de um tipo de estrutura de aprendizagem automática utilizada para a IA generativa, designada por rede adversária generativa (GAN), forneceu os meios técnicos para a criação de conteúdos "deepfake".

Em segundo lugar, o fácil acesso a ferramentas construídas com base em GANs significa que quase qualquer pessoa pode criar conteúdos deepfake de forma rápida e económica.

PUBLICIDADE

"Estas plataformas oferecem uma série de funcionalidades, desde a simples troca de rostos a manipulações de vídeo mais complexas", explica o relatório. Os autores acrescentam que o crescimento das comunidades em linha dedicadas à criação de deepfake "fomentou a colaboração, a partilha de conhecimentos e o desenvolvimento de projetos de código aberto".

Partilhe esta notíciaComentários

Notícias relacionadas

Deepfakes sexualmente explícitas: Está a UE a fazer o suficiente para as travar?

TikTok suspende recompensas na aplicação Lite na sequência da investigação da UE

Senado dos EUA aprova legislação para forçar venda do TikTok sob ameaça de proibição