Um novo relatório mostra que a perseguição cibernética, o software espião, o discurso de ódio e as ameaças estão entre os casos mais denunciados de violência contra mulheres e raparigas na Europa.
Na última década, com o rápido crescimento das tecnologias digitais e da sua integração na vida quotidiana, os espaços online e as ferramentas digitais ofereceram oportunidades de ligação e de informação.
No entanto, a violência facilitada pela tecnologia contra as mulheres e as raparigas também aumentou significativamente.
Mais de 90% dos vídeos de deepfake online são de natureza pornográfica, com mulheres quase exclusivamente como alvo, de acordo com um relatório do "2023 Security Hero".
Em toda a Europa, o cyberstalking, a vigilância e a utilização de spyware foram as formas mais comuns de ciberviolência denunciadas por mulheres e raparigas, de acordo com o último relatório da "Women Against Violence Europe (WAVE)", "Mulheres Contra a Violência Europa"em português.
A WAVE é uma rede de mais de 180 ONG europeias de mulheres que trabalham para prevenir e proteger mulheres e crianças contra a violência.
"A violência exercida na Internet é muitas vezes mais difícil de reconhecer, provar e sancionar, deixando muitas mulheres e raparigas expostas a danos sem proteção adequada", refere o relatório.
O assédio, o discurso de ódio e as ameaças no ciberespaço foram igualmente generalizados e registados em 30 países.
Por exemplo, na Grécia, em 2023, as mulheres representavam 55,3% das vítimas de ameaças na Internet e 69,6% das vítimas de perseguição cibernética.
Mais de metade dos países (57%) também comunicaram um aumento do abuso baseado em imagens e da partilha não consensual de imagens íntimas.
Na Dinamarca, o número de jovens vítimas de abusos identificados com base em imagens triplicou desde 2021.
"Os algoritmos podem espalhar rapidamente conteúdo misógino para um grande número de pessoas, criando espaços fechados em que a violência contra mulheres e meninas é normalizada e ideias prejudiciais se disseminam, especialmente entre homens jovens", afirma o relatório WAVE.
Preocupações com imagens sexualmente explícitas
O rápido desenvolvimento da Inteligência Artificial (IA) nos últimos anos parece ter exacerbado o problema e lançado ainda mais desafios no que diz respeito às imagens sexualmente explícitas.
Desde o início de 2026, o Grok, o chatbot de IA propriedade de Elon Musk, tem respondido às solicitações dos utilizadores para "despir" imagens de mulheres, criando deepfakes gerados por IA sem quaisquer salvaguardas.
Uma organização europeia sem fins lucrativos que investiga algoritmos influentes, a AI Forensics, analisou mais de 20.000 imagens geradas pelo Grok e 50.000 pedidos feitos por utilizadores e descobriu que 53% das imagens geradas pelo Grok continham indivíduos em trajes mínimos, dos quais 81% eram indivíduos que se apresentavam como mulheres.
Além disso, 2% das imagens mostravam pessoas que aparentavam ter 18 anos ou menos e 6% das imagens mostravam figuras públicas, aproximadamente um terço das quais eram figuras políticas.
Como resposta, a plataforma implementou novas ferramentas que o Grok não permita que as pessoas editem fotografias de indivíduos reais com roupas reveladoras.
"Implementámos medidas tecnológicas para impedir que a conta Grok no X globalmente permita a edição de imagens de pessoas reais com roupas reveladoras, como biquínis", escreveu a equipa de segurança de Musk no X.
Esta restrição aplica-se a todos os utilizadores, incluindo os assinantes pagos.
Musk também afirmou que tomaria medidas para remover conteúdos violadores de alta prioridade, incluindo material de abuso sexual de crianças e nudez não consensual, e para denunciar contas que procuram materiais de exploração sexual de crianças às autoridades policiais.
Políticos, jornalistas, defensores dos direitos das mulheres e ativistas feministas são um alvo preferencial para pornografia deepfake e discursos de ódio coordenados destinados a silenciá-los ou desacreditá-los.