Na Dinamarca, os cidadãos terão em breve direitos de autor sobre as suas próprias imagens, como forma de lutar contra o deepfake. Que outros países têm leis que regem a utilização de vídeos falsos ou gerados por IA?
A Dinamarca vai conceder aos cidadãos direitos de autor sobre as suas próprias imagens, como forma de combater os vídeos "deepfake" gerados, numa altura em que os países de todo o mundo se debatem com o rápido crescimento da inteligência artificial (IA).
Em comunicado, o governo dinamarquês afirma que o projeto de lei, aprovado por todos os principais partidos, tornará ilegal a partilha de "imitações digitais" das caraterísticas de uma pessoa, também conhecidas como "deepfakes".
"Estamos agora a enviar um sinal inequívoco a todos os cidadãos de que têm direito ao seu próprio corpo, à sua própria voz e às suas próprias caraterísticas faciais", afirmou o ministro da Cultura dinamarquês, Jakob Engel-Schmidt.
Os deepfakes são vídeos ou outros conteúdos gerados por IA que alteram uma pessoa, muitas vezes com o intuito de divulgar informações falsas ou de a envergonhar.
"A tecnologia está a desenvolver-se rapidamente e, no futuro, será ainda mais difícil distinguir a realidade da ficção no mundo digital", disse Engel-Schmidt, acrescentando que a nova lei será uma "salvaguarda contra a desinformação" e também "enviará um sinal claro aos gigantes da tecnologia".
A Dinamarca não é o único país a combater as falsificações profundas através de novas leis. Eis os outros países europeus que estão a tomar medidas.
União Europeia
O AI Act da UE classifica tudo o que é criado por IA generativa numa de quatro categorias: risco mínimo, risco limitado, risco elevado e risco inaceitável. Os deepfakes são considerados de "risco limitado" e, por conseguinte, estão sujeitos a algumas regras de transparência.
Isto significa que não existe uma proibição total das falsificações profundas, mas as empresas são obrigadas a rotular os conteúdos gerados por IA nas suas plataformas, a colocar marcas de água nos vídeos e a divulgar os conjuntos de treino utilizados para desenvolver os seus modelos.
Se uma empresa de IA violar as regras de transparência, poderá enfrentar uma coima de até 15 milhões de euros ou 3% do seu volume de negócios global do ano anterior. No caso de práticas proibidas, essa coima sobe para 35 milhões de euros ou 7% do volume de negócios global.
Outro artigo da Lei da IA proíbe também a IA manipuladora, que pode incluir sistemas que utilizam técnicas subliminares ou enganosas para "prejudicar a tomada de decisões informadas".
Algumas ações judiciais incidem sobre a pornografia e outros conteúdos sexuais. Por exemplo, a diretiva da UE sobre a violência contra as mulheres criminaliza a "produção, manipulação ou alteração não consensual... de material que faça parecer que uma pessoa está envolvida em atividades sexuais".
A diretiva inclui a produção de deepfakes ou de qualquer material criado com recurso a IA. A diretiva não especifica as sanções a aplicar a um indivíduo ou a uma empresa que viole a diretiva, deixando a decisão ao critério de cada Estado-membro da UE, que têm até junho de 2027 para implementar a regra.
Lei dos espaços digitais em França
Em 2024, França aprovou uma atualização do seu código penal para proibir as pessoas de partilharem qualquer conteúdo visual ou áudio criado por IA, como deepfakes, sem o consentimento da pessoa retratada no mesmo. Qualquer conteúdo partilhado deve ser claramente divulgado como sendo gerado por IA.
Os distribuidores destes vídeos ou áudios podem enfrentar até um ano de prisão e uma multa de 15 000 euros; a pena pode ir até dois anos de prisão e uma multa de 45 000 euros se o deepfake for partilhado através de um "serviço online".
As alterações ao código penal incluem também uma proibição específica de deepfakes pornográficos, mesmo que tenham marcas claras que indiquem que são falsos.
Quem for apanhado a distribuir estes conteúdos em França pode ser condenado a três anos de prisão e a uma multa de 75 000 euros.
A lei também dá à Arcom, a entidade reguladora do audiovisual em França, o poder de obrigar as plataformas a remover conteúdos ilícitos e a melhorar os seus sistemas de denúncia.
Condenação a dois anos de prisão no Reino Unido por pornografia deepfake
O Reino Unido tem várias leis que tratam da criação de pornografia "deepfake", incluindo as recentes alterações à Lei dos Dados (Utilização e Acesso).
A lei visa os "abusadores hediondos" que criam imagens falsas para "gratificação sexual ou para causar alarme, angústia ou humilhação". Os infratores podem ser sujeitos a uma "multa ilimitada".
Outra novidade recente é a possibilidade de uma pena de prisão de dois anos ao abrigo da Lei de Ofensas Sexuais do Reino Unido para quem criar deepfakes sexuais.
A lei britânica sobre segurança online torna ilegal a partilha ou ameaça de partilha de imagens sexuais não consentidas nas redes sociais.
A lei também obrigará as plataformas a "adotar medidas para remover proativamente este material" e a garantir que não apareça em primeiro lugar. Em caso de violação da lei, as empresas poderão ser alvo de coimas que poderão atingir 10% das suas receitas mundiais, aplicadas pela autoridade reguladora da Internet do Reino Unido, a Ofcom.
No entanto, Julia Hörnle, professora da Queen Mary University School of Law, afirmou que a Lei da Segurança Online não torna a criação de imagens deepfake ilegal, o que "deixa as vítimas vulneráveis a danos, mesmo que o conteúdo nunca seja partilhado publicamente".
O governo britânico deveria também abordar a "disponibilidade" de ferramentas de IA para criar deepfakes, criminalizando o seu "desenvolvimento, distribuição e promoção".