A Comissão apresentou um plano para proteger os menores na Internet, ao mesmo tempo que apresenta um novo sistema de verificação da idade. Os Estados-membros estão a legislar para proibir o acesso das crianças às redes sociais, enquanto o Parlamento Europeu defende um limite rigoroso de 16 anos.
93 % dos cidadãos da UE estão preocupados com a saúde mental das crianças. 92 % identificam o ciberbullying como a principal ameaça online, de acordo com o Eurobarómetro “O estado da década digital 2025”.
Bruxelas adotou uma posição mais dura quanto à segurança das crianças na internet.
Na semana passada, a presidente da Comissão Europeia, Ursula von der Leyen, anunciou que uma nova “aplicação de verificação de idade está tecnicamente pronta e em breve estará disponível para os cidadãos utilizarem”.
O sistema exige que os cidadãos verifiquem a sua idade para aceder a plataformas online sem partilhar dados pessoais.
Os Estados-membros da UE já estão a tomar medidas decisivas. França aprovou uma proibição dirigida a utilizadores com menos de 15 anos. Espanha, Áustria, Grécia, Irlanda, Dinamarca e Países Baixos preparam-se para introduzir em breve regras semelhantes.
Christel Schaldemose, eurodeputada do Grupo da Aliança Progressista dos Socialistas e Democratas e relatora do relatório não legislativo sobre uma idade mínima comum para as redes sociais na UE, nota hesitações na ação da Comissão.
“Não sei se estão a adiar [as medidas] de propósito, mas acho que estão a demorar demasiado. Assim, acabamos por ter um mercado interno fragmentado, porque tantos países já sugeriram um limite de idade”.
Crianças e plataformas online
As redes sociais tornaram-se um ambiente omnipresente e arriscado para as crianças, sobretudo devido a mecanismos de dependência, ligação permanente, forte personalização e ferramentas de IA.
Em 2022, 96% dos jovens de 15 anos estavam ativos nas redes sociais, e 37% passavam mais de três horas por dia nestas plataformas. As adolescentes usam mais as redes sociais, 42% contra 32% dos rapazes, concluiu um estudo de 2025 do Centro Comum de Investigação (JRC).
Entre os 9 e os 15 anos, o uso diário chega frequentemente às três horas; 78% dos adolescentes dos 13 aos 17 anos consultam os dispositivos pelo menos uma vez por hora; um quarto admite ter dificuldades com hábitos disfuncionais de utilização da internet, refere o relatório não legislativo do Parlamento Europeu de novembro de 2025.
Quase 99% dos jovens dos 16 aos 17 anos participaram ativamente nas redes sociais em 2025 (criando perfis, publicando mensagens, usando o Facebook, o X, etc.), segundo o Eurobarómetro.
Para Schaldemose, o grupo de peritos da Comissão sobre segurança das crianças online é um primeiro passo positivo. O conhecimento aprofundado dos especialistas irá orientar de forma eficaz a ação da Comissão, afirmou.
O JRC alerta que o uso descontrolado das redes sociais prejudica a saúde mental das crianças, aumentando os níveis de depressão e ansiedade. Conteúdos nocivos, como material violento, sexualizado ou que promove perturbações alimentares, podem afetar o desenvolvimento cerebral e os comportamentos sociais das crianças.
60% das jovens apresentam sintomas de depressão, contra 35% dos rapazes, e 65% sofrem de ansiedade, face a 41% dos rapazes, revela o estudo do JRC.
Como muitas plataformas na internet se dirigem sobretudo a adultos, os seus modelos de negócio baseados na publicidade têm repercussões sérias nos utilizadores mais jovens, alimentando situações de dependência.
36% dos adolescentes na Europa, Ásia Central e Canadá mantêm contacto permanente através das redes sociais. 11% apresentam um uso problemático, com as raparigas (13%) a registarem taxas superiores às dos rapazes (9%), de acordo com um relatório de 2024 da Organização Mundial da Saúde (OMS).
Proibições, uma competência nacional
A 8 de abril de 2026, o primeiro-ministro grego, Kyriakos Mitsotakis, anunciou uma proibição do acesso às redes sociais para menores de 15 anos. A lei, que deverá entrar em vigor em janeiro de 2027 e aguarda ainda aprovação no Parlamento, impede os menores de terem contas nas redes sociais, obrigando as plataformas a aplicar uma verificação rigorosa da idade sob pena de sanções financeiras.
A medida foi motivada por dados que indicam que 75% das crianças do ensino básico na Grécia estavam ativas nas redes sociais, enquanto cerca de 48% dos adolescentes referiram efeitos negativos na saúde mental.
O apoio público também aumentou, com 80% a favor de uma proibição após a decisão, em março de 2026, de um tribunal nos Estados Unidos que responsabilizou grandes plataformas tecnológicas por conceberem aplicações viciantes. A partir do sucesso da proibição de smartphones nas escolas gregas em 2024, o governo apontou alunos "sem vida" e privação de sono como principais razões para a nova restrição.
A Grécia junta-se a outros países da UE: França aprovou em janeiro de 2026 uma proposta de lei para proibir o acesso às redes sociais a menores de 15 anos, invocando uma "emergência de saúde" e a necessidade de proteger os menores do ciberbullying e de danos psicológicos. Em fevereiro de 2026, Espanha anunciou planos para uma proibição para menores de 16 anos, a fim de "domar o Oeste Selvagem digital", enquanto Áustria, Dinamarca e Eslovénia preparam projetos de proibição para menores de 14, 15 e 15 anos, respetivamente.
Itália e Irlanda estudam proibições para menores de 15 e de 16 anos, respetivamente, enquanto a Alemanha e outros países debatem limites de idade ou "versões juvenis" das plataformas. A onda de problemas de saúde mental e a vontade de responsabilizar os gigantes tecnológicos por modelos de plataformas viciantes estão na origem destes debates, seguindo o precedente aberto pela Austrália, que em 2025 adotou a primeira proibição mundial para menores de 16 anos.
As datas de nascimento declaradas pelos próprios revelaram-se ineficazes. A aplicação das regras tem sido feita através de sistemas como carteiras digitais ou tokens de identidade, mas a nova aplicação de verificação da idade da Comissão Europeia "vai permitir aos utilizadores provar a idade quando acedem a plataformas online, tal como as lojas pedem prova de idade a quem compra [álcool]", explicou von der Leyen.
As plataformas têm a principal responsabilidade e os reguladores nacionais fiscalizam o cumprimento através de supervisão e coimas. Embora regras de âmbito europeu como a Lei dos Serviços Digitais (DSA) e o Regulamento Geral sobre a Proteção de Dados (RGPD) estabeleçam uma proteção mínima para os menores, as proibições nacionais vão mais longe ao fixar limites de idade estritos e aumentar a responsabilização das empresas tecnológicas.
Mas figuras políticas da oposição, como deputados do partido espanhol Vox e responsáveis italianos, consideram estas proibições uma intervenção excessiva do Estado, defendendo que a educação, o controlo parental e a literacia digital seriam mais eficazes do que restrições totais.
Esta perspetiva é partilhada por defensores dos direitos dos consumidores; Olivia Brown, responsável de políticas do grupo internacional de consumidores Euroconsumers, considera as proibições generalizadas um atalho político que acaba por aliviar a responsabilidade das plataformas.
"Proibir as redes sociais não torna a internet mais segura. Apenas empurra o problema para fora de vista. O que os menores precisam é de segurança integrada no desenho das plataformas, controlos reais para os utilizadores e algoritmos que eles próprios possam moldar, não portas que se fecham de forma brusca para se abrirem de par em par no momento em que fazem 18 anos".
Avanços para uma regulação à escala da UE
A questão é politicamente sensível e uma proibição à escala da UE arrisca agravar a polarização. Em vez disso, a Comissão lança primeiro a aplicação de verificação da idade como ferramenta para que os Estados-membros apliquem as suas próprias proibições nacionais.
Pensada inicialmente em 2025, a aplicação foi concebida como uma infraestrutura técnica que pode ser integrada em carteiras digitais nacionais ou em aplicações autónomas para verificar a idade dos utilizadores. Para confirmar a idade, os utilizadores têm de descarregar uma aplicação, dar consentimento para a utilização dos dados, digitalizar um documento de identificação (incluindo o chip) e concluir um reconhecimento facial. Este processo pode ter de ser repetido regularmente e as plataformas poderão exigir verificação sempre que se acede a serviços com restrição de idade.
As preocupações prendem-se com a complexidade do sistema, as implicações para a privacidade, a facilidade de contornar o mecanismo (por exemplo através de VPN) e o receio de que possa desviar a responsabilidade das próprias plataformas, ao contrário de outros instrumentos regulatórios europeus.
Um desses instrumentos é o RGPD, adotado em 2016 e aplicado entre 2018 e 2020, que definiu regras rigorosas para os dados das crianças e fixou a idade padrão de consentimento digital em 16 anos (com possibilidade de redução até aos 13), exigindo a autorização dos pais para utilizadores mais novos.
A revisão da Diretiva dos Serviços de Comunicação Social Audiovisual, em vigor desde 2020, introduziu sistemas de classificação etária e controlos parentais nas plataformas de streaming, bem como proibições estritas de conteúdos nocivos, como material de exploração sexual de menores. Em 2021, a UE lançou depois uma estratégia mais ampla para a segurança das crianças online, combinando financiamento, investigação e códigos de conduta voluntários para enfrentar riscos como aliciamento e desinformação.
Mais recentemente, a Comissão propôs medidas práticas como contas privadas por defeito para menores e limites a funcionalidades viciantes, como a reprodução automática e o scroll infinito. Partes da Lei da Inteligência Artificial, cujas proibições começaram a aplicar-se em fevereiro de 2025, proíbem especificamente sistemas que utilizem técnicas subliminares ou explorem vulnerabilidades das crianças para distorcer o seu comportamento. A futura Lei da Equidade Digital, cuja proposta formal é esperada para o final de 2026, deverá apertar as regras sobre o design das plataformas, proibindo "padrões obscuros" e funcionalidades viciantes como o scroll infinito.
No centro deste quadro está a DSA, um regulamento de referência para reformular as plataformas online. Proposta pela Comissão em 2020, foi acordada pelo Parlamento Europeu e pelo Conselho em 2022 e entrou em vigor em fevereiro de 2024, após uma aplicação faseada.
A DSA obriga as plataformas a proteger os utilizadores, dando prioridade aos menores. Entre as medidas contam-se definições de base mais seguras, moderação de conteúdos e restrições à publicidade dirigida. O diploma cria ainda um novo sistema de aplicação das regras, com Coordenadores de Serviços Digitais nacionais e uma supervisão à escala da UE.
Após a entrada em vigor da DSA, os cidadãos da UE passaram a ter mais transparência, direitos de utilizador reforçados e limites a práticas nocivas ou exploratórias. Os utilizadores dispõem agora de vias mais claras para denunciar conteúdos e recorrer de decisões, enquanto os menores beneficiam de maior proteção da privacidade e de menor exposição a publicidade dirigida.
Impacto nas plataformas digitais
As restrições etárias nas redes sociais afetam de forma significativa o alcance junto dos adolescentes: as empresas perdem um grupo social importante que impulsiona a atividade online, o que se traduz em menos impressões publicitárias e menos receitas de tráfego.
As plataformas online dependem em grande medida de adolescentes e crianças para as receitas publicitárias. Limites de idade nas redes sociais podem reduzi-las, ao diminuir o número de utilizadores jovens e tornar mais difícil direcionar-lhes anúncios.
Os custos de conformidade podem aumentar, já que as empresas têm de reforçar os sistemas de verificação da idade e os processos de consentimento parental. Estes mecanismos são caros e complexos devido à necessidade de tecnologias avançadas de verificação de identidade e proteção de dados.
A proibição de características de design viciantes e de algoritmos de envolvimento nas redes sociais obriga a redesenhar produtos, o que aumenta os custos de engenharia e atrasa lançamentos no mercado europeu. Uma aposta em conteúdos mais seguros pode também pressionar os orçamentos.
Segundo Schaldemose, as grandes empresas terão de desenvolver "novas plataformas com um modelo de negócio completamente diferente, que proteja as crianças".
As empresas podem ainda enfrentar riscos jurídicos mais severos em caso de incumprimento das regras. O Parlamento propôs responsabilizar pessoalmente os proprietários das plataformas por violações graves e reiteradas das normas de proteção de menores.
"São eles que põem as plataformas à disposição. Se chegarmos a acordo sobre um limite de idade, a responsabilidade, em caso de infrações, recai claramente sobre as empresas", afirmou Schaldemose à Euronews.
Europa precisa de acelerar
Para Schaldemose, a Comissão está a agir demasiado devagar. O grupo foi anunciado em setembro, mas só começou a trabalhar em março.
Alguns Estados-membros estarão já a contestar a aplicação. "Quanto mais tempo a Comissão demorar a apresentar uma proposta, maior é a probabilidade de termos um mercado fragmentado e brechas nas regras", alertou.
"Fiquei impaciente com a Comissão. Parece que os próprios Estados-membros também estão um pouco impacientes, porque também estão a pressionar", acrescentou Schaldemose.
As questões de privacidade e de partilha de dados já não podem servir de desculpa. "Nos últimos dois anos desenvolvemos ferramentas que não comprometem os dados pessoais nem a segurança", adiantou.
O Parlamento continuará a pressionar até a Comissão encontrar uma solução razoável. "Temos de agir a nível europeu e o Parlamento é claro quanto a isso", concluiu Schaldemose.