Várias grandes organizações mundiais, como a Amnistia Internacional e a Comissão Europeia, têm defendido a proibição das ferramentas de 'nudificação' com IA.
Mais de uma centena de grandes organizações humanitárias e de proteção de menores exigem medidas urgentes contra aplicações e ferramentas de nudificação com recurso a IA. A coligação inclui a Amnistia Internacional, a Comissão Europeia, a Interpol, a Safe Online, a Save the Children e outros especialistas em proteção infantil e defensores dos direitos humanos.
Esta mobilização surge após a polémica em torno da nudificação com o Grok, em que utilizadores pediram ao chatbot de IA de Elon Musk, o Grok, para retirar roupa de fotografias digitais de mulheres.
Tudo começou com a tendência “pô-la de biquíni”, que alterava imagens para mostrar mulheres de biquíni, mas que rapidamente descambou em fotografias cada vez mais sexualizadas.
Estas imagens falsas e criadas sem consentimento foram depois publicadas na rede social X, à vista de milhões de pessoas. Estima-se que o Grok já tenha gerado cerca de três milhões de fotografias de nudez não consentida.
Em vários casos, imagens produzidas por IA têm vindo a ser associadas a chantagem, coação e material de abuso sexual de menores, sendo a maioria das vítimas mulheres e crianças.
Ameaça grave à segurança das crianças e à dignidade humana
A coligação global sublinha que estas aplicações e ferramentas de nudificação constituem uma ameaça grave e inaceitável para a segurança das crianças e para a dignidade humana.
“As ferramentas de nudificação criaram uma ameaça sem precedentes para as nossas crianças. A IA, a tecnologia que deveria ampliar o potencial humano, está a ser transformada numa arma contra as crianças”, afirmou Marija Manojlovic, diretora da Safe Online, em comunicado.
“Minimizamos o dano ao chamá-lo ‘online’, como se fosse de algum modo menos grave do que o que acontece no mundo físico, mas o trauma é real”, acrescentou.
Apesar de muitas vezes serem promovidas como aplicações “para adultos”, têm sido cada vez mais usadas para gerar imagens sexuais ilegais de crianças, sem qualquer tipo de consentimento, barreiras eficazes ou responsabilização.
“As empresas tecnológicas têm capacidade para detetar e bloquear conteúdos nudificados envolvendo crianças. A distribuição de material de abuso sexual de menores é ilegal em todas as jurisdições e as plataformas tecnológicas devem ser alinhadas com os restantes canais de criação e distribuição”, defendeu Manojlovic.
“É, francamente, chocante que estas plataformas sejam monetizadas e não sejam obrigadas a denunciar infratores ou a trabalhar com parceiros do setor para cortar os fluxos de pagamento; são instrumentos de proteção usados no mundo real e que têm de ser aplicados também às plataformas online".
Aumenta a pressão para proibir as tecnologias de nudificação com IA, com defensores a afirmarem que não têm qualquer finalidade legítima.
Por isso, a coligação exige o bloqueio destas tecnologias e que programadores e plataformas sejam responsabilizados.