O projeto de legislação comunitária sobre abuso sexual de crianças deu origem a uma amarga polémica sobre privacidade. Porquê?

Uma criança brinca com um telemóvel
Uma criança brinca com um telemóvel Direitos de autor Michal Dyjuk/Copyright 2022 The AP. All rights reserved
Direitos de autor Michal Dyjuk/Copyright 2022 The AP. All rights reserved
De  Mared Gwyn Jones
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button
Artigo publicado originalmente em inglês

Há quem defenda que a proposta de lei da UE pode dar início a uma vigilância em massa no bloco através da análise de todas as comunicações, incluindo as mensagens encriptadas.

PUBLICIDADE

Rhiannon tinha apenas treze anos quando foi aliciada na internet, coagida e abusada sexualmente.

O seu agressor foi acusado, mas o impacto dos seus crimes é profundo.

"Não falei sobre o meu abuso durante muito tempo", disse Rhiannon à Euronews. "Sofri de ansiedade, ataques de pânico, depressão, automutilação e tentativas de suicídio".

Hoje, aos 33 anos, Rhiannon sabe que as imagens e os vídeos do seu abuso continuam a circular na Internet. Mas ela fala, apelando a uma regulamentação mais forte para travar os predadores sexuais.

Esta quinta-feira, os ministros da União Europeia discutem novas leis abrangentes propostas pela Comissão Europeia para combater o abuso sexual de crianças em linha e garantir que crimes como os cometidos contra Rhiannon não sejam revividos dia após dia na Internet.

Cidadã britânica, Rhiannon afirma que a proposta de regulamento da UE, juntamente com o projeto de lei sobre segurança em linha do Reino Unido, que em breve se tornará lei, são fundamentais na luta global contra o abuso sexual de crianças.

A legislação europeia prevê a utilização de tecnologias emergentes para detetar material de abuso sexual de crianças (CSAM) e actividades de aliciamento de crianças, novas ou já existentes, e confere às autoridades nacionais o poder de obrigar os serviços digitais a analisar as comunicações dos utilizadores, incluindo as mensagens codificadas.

No entanto, surgiu uma polémica amarga, que opõe os defensores da proteção das crianças aos grupos de pressão dos direitos digitais, que afirmam que o regulamento irá instigar um regime de vigilância em massa e significar o fim da privacidade digital tal como a conhecemos. Os apoiantes afirmam que se o regulamento não for aprovado, os criminosos não serão detectados e as grandes empresas tecnológicas não serão regulamentadas.

Entre os dois campos há uma corda bamba que se está a revelar difícil de percorrer: como apanhar os abusadores de crianças sem pôr em causa a nossa privacidade online.

As tecnologias estão suficientemente maduras?

Para detetar o material pedopornográfico conhecido pelas autoridades policiais, a Comissão propôs a utilização da chamada função hash percetual, que obtém uma impressão digital, ou hash, dos ficheiros nocivos e detecta réplicas na Internet.

Mas os peritos académicos alertam para o facto de os autores poderem facilmente manipular as imagens para evitar a deteção e de utilizadores inocentes poderem ser injustamente acusados: "O problema é que é muito fácil quebrar o hash mudando um pixel ou mesmo cortando ligeiramente a imagem", explicou o professor Bart Preneel, especialista em criptografia da Universidade KU Leuven. "Também é possível que uma imagem perfeitamente legítima seja assinalada como um falso positivo."

A Comissão pretende criar um Centro Europeu para o Abuso Sexual de Crianças, em Haia, onde será contratado pessoal para filtrar manualmente os conteúdos assinalados como ilegais, a fim de evitar inundar as autoridades policiais com falsos positivos.

Mas a organização da sociedade civil ECPAT International afirma que existem provas suficientes de que as tecnologias de hash percetual funcionam de facto.

"Estas tecnologias não são apenas prometedoras, estão comprovadas. Os métodos baseados em hash são eficazes há mais de uma década, permitindo uma ação mais rápida contra conteúdos ilegais e ajudando a aplicação da lei. Por exemplo, mais de 200 empresas utilizam a tecnologia PhotoDNA para impedir que os seus serviços sejam utilizados para difundir materiais relacionados com o abuso sexual de crianças", afirmou um porta-voz da ECPAT.

A Comissão também quer utilizar a inteligência artificial (IA) para detetar CSAM recém-criados, bem como para assinalar padrões de comportamento que possam constituir aliciamento de crianças. Preneel disse à Euronews que estes métodos representam um risco ainda maior de falsa incriminação.

"Mesmo que reduzíssemos a taxa de erro para 1%, com milhares de milhões de imagens enviadas todos os dias para a UE, poderíamos estar perante dezenas de milhões de falsos positivos diários", alertou Preneel. "Poderíamos estar a incriminar pessoas inocentes, acusando-as dos crimes mais graves".

Preneel adverte também que os adolescentes que partilham voluntária e legalmente imagens de nudez entre si podem ser injustamente criminalizados.

Mas, embora reconheça que os modelos de IA baseados na linguagem para detetar comportamentos de aliciamento ainda precisam de amadurecer, a ECPAT diz que a IA foi implantada com sucesso para detetar novos CSAM com "baixas taxas de erro".

PUBLICIDADE

"As ferramentas de deteção de CSAM são especificamente treinadas para não encontrar imagens legais", explicou o porta-voz da ECPAT. "Estas ferramentas são treinadas em CSAM conhecidas, pornografia para adultos e imagens benignas, particularmente para fazer a distinção e para evitar que imagens benignas sejam mal interpretadas como CSAM".

Mié Kohiyama, outra sobrevivente de abuso sexual de crianças em França que, tal como Rhiannon, defende uma regulamentação mais forte, afirma que a prevalência de imagens e vídeos de abuso de crianças em linha significa que a União Europeia tem a responsabilidade de tomar medidas.

"Mais de 60% destas imagens estão alojadas em servidores europeus, pelo que temos a responsabilidade de atuar", explicou. "A deteção é fundamental e a remoção é fundamental."

As novas regras prejudicam a privacidade?

O aspeto mais contestado da proposta da Comissão é a obrigação de as empresas tecnológicas utilizarem a tecnologia de scanning do lado do cliente (CSS) para analisar as mensagens dos utilizadores, incluindo as comunicações encriptadas de ponta a ponta em plataformas como o Whatsapp da Meta, quando é identificado um risco.

Isto significaria que as mensagens encriptadas, as fotografias, os e-mails e as notas de voz dos utilizadores poderiam ser alvo de uma escuta.

PUBLICIDADE

Os defensores da privacidade alertam para o facto de esta medida constituir uma grave violação do direito à privacidade das pessoas em linha e poder ser facilmente manipulada por agentes maliciosos. O CSS foi implementado brevemente pela Apple em 2021 para verificar os uploads do iCloud, mas foi retirado em poucas semanas quando o sistema foi sequestrado.

Mas a ECPAT International diz que é importante lembrar que o CSS opera "antes que os dados sejam criptografados".

O CSS funciona "antes de os dados serem encriptados", sinalizando o CSAM antes de este ser carregado e enviado através de um ambiente encriptado - da mesma forma que o WhatsApp, um serviço encriptado de ponta a ponta, já utiliza tecnologia para detetar malware e vírus", afirmou um porta-voz da ECPAT.

Os críticos também alertam para o facto de a encriptação poder abrir um precedente perigoso para os regimes autoritários, que poderiam manipular a tecnologia para detetar críticas e atingir dissidentes.

Mié afirma que este tipo de alarmismo é simplesmente uma forma de desviar a atenção da verdadeira questão.

PUBLICIDADE

"A Europa é uma democracia, não uma ditadura. E não sejamos ingénuos: numa ditadura, quando se quer espiar os cidadãos, espia-se os cidadãos. Não é necessário um novo regulamento".

Será que os ministros da UE conseguem chegar a um compromisso?

A proposta de regulamento tem dividido as capitais da UE, com muitos preocupados com a maturidade das tecnologias e a ameaça à privacidade dos consumidores. Os ministros podem optar por dar luz verde a certos aspectos do texto, enquanto outros planos ficam em suspenso até que as tecnologias tenham amadurecido o suficiente.

Mié e Rhiannon disseram à Euronews que os ministros devem evitar ceder à pressão dos lobbies das grandes empresas tecnológicas e digitais. O aumento acentuado de material abusivo mostra que as medidas voluntárias das empresas tecnológicas para detetar e retirar conteúdos são claramente insuficientes. Um estudo divulgado na terça-feira pela WeProtect Global Alliance sugere que o material de abuso sexual infantil relatado aumentou 87% desde 2019.

"As empresas de tecnologia projetam os produtos para atrair crianças e envolvê-las o maior tempo possível. Se esse é o modelo deles, tem que ser um ambiente seguro para as crianças", disse Rhiannon.

"O modelo de autorregulação das empresas tecnológicas não tem funcionado, o que é evidente pelo número de crianças vítimas de abusos. Temos de legislar sobre esta questão, temos de obrigar as empresas tecnológicas a proteger as crianças", acrescentou.

PUBLICIDADE

Mié também acredita que o bloco tem a responsabilidade de proteger os sobreviventes de abusadores que usam meios digitais de uma dupla traumatização ao saberem que as imagens dos abusos que lhes foram inflingidos estão a ser vistas todos os dias.

"Estes sobreviventes têm medo de tudo. Não podem sair de casa. Para alguns deles, têm medo até de utilizar a Internet. São pessoas que estão totalmente marginalizadas da sociedade", disse. "Temos de as proteger. Temos de proteger as crianças. É uma questão que tem de estar em primeiro lugar na mente de toda a gente".

Partilhe esta notíciaComentários

Notícias relacionadas

Vítimas de abuso sexual infantil na UE enfrentam uma "lotaria de códigos postais" de injustiça, alerta relatório

11 momentos que definiram o mandato 2019-2024 do Parlamento Europeu

Se não for Ursula von der Leyen, então quem será? Sete candidatos ao lugar cimeiro da Comissão