Organização sem fins lucrativos dos EUA recupera manual de segurança da indústria automóvel para proteger crianças da IA e quer fazê-lo com o dinheiro das grandes tecnológicas
Será formalmente apresentado na terça‑feira, no Parlamento dinamarquês, um novo instituto independente dedicado a tornar a inteligência artificial mais segura para as crianças, com a antiga vice‑presidente executiva da Comissão Europeia Margrethe Vestager entre os responsáveis pela organização do evento.
A abordagem do instituto, explicada num comunicado antes do lançamento, é «inspirada nas classificações independentes de testes de colisão» dos automóveis.
A ideia, em teoria, é que, tal como os consumidores podem verificar se um veículo é seguro antes de o comprar, também os pais possam fazer o mesmo em relação à IA utilizada pelos filhos.
O que será, na prática, um teste de colisão para um chatbot é algo que o instituto ainda não explica.
Se é possível «submeter a crash‑tests», em termos comparáveis, para crianças, produtos de IA que se atualizam continuamente, se comportam de forma diferente consoante o contexto e resistem às condições padronizadas que uma pista de testes permite, são questões que o instituto ainda terá de clarificar.
Vestager, que passou uma década na Comissão Europeia a supervisionar a política de concorrência e liderou a agenda «Uma Europa preparada para a era digital», é uma das figuras mais proeminentes a dar peso político à iniciativa.
Voltar a pôr o génio na garrafa?
Investigadores, defensores da proteção das crianças e alguns responsáveis políticos vêm a lançar alertas há vários anos.
Os chatbots de IA têm permanecido até agora numa zona cinzenta da regulamentação ao abrigo do Digital Services Act da UE e do Online Safety Act do Reino Unido e, em julho de 2025, a Comissão Europeia publicou orientações sobre a proteção de menores em linha, mas com carácter meramente orientador, não vinculativo.
«A IA está a remodelar a infância e a adolescência, mas estamos a tomar decisões críticas sobre o futuro das crianças sem as provas de que precisamos para garantir que é segura e serve o seu interesse», afirmou no comunicado James P. Steyer, fundador e diretor executivo da Common Sense Media.
«A necessidade de normas transparentes de segurança da IA e de testes independentes é hoje mais premente do que nunca.»
Numa avaliação de riscos realizada em novembro de 2025, em parceria com o Brainstorm Lab da Stanford Medicine, a Common Sense Media concluiu que os principais chatbots de IA, incluindo o ChatGPT, o Claude, o Gemini e o Meta AI, falhavam de forma sistemática o reconhecimento e a resposta adequada a problemas de saúde mental que afetam jovens, apesar de melhorias recentes na forma como lidam com conteúdos explícitos sobre suicídio e automutilação.
Os investigadores identificaram aquilo a que chamaram «pistas perdidas», sinais claros de sofrimento psicológico que os chatbots não detetavam, com os modelos a privilegiarem explicações de saúde física em vez de reconhecerem indícios de perturbações de saúde mental.
Uma avaliação em separado ao ChatGPT revelou que os alertas para conteúdos relacionados com suicídio ou automutilação chegavam frequentemente mais de 24 horas depois da conversa relevante ou demasiado tarde, sublinha o relatório, numa situação de crise real.
Dinheiro da própria Big Tech
O instituto irá funcionar no âmbito da Common Sense Media e é financiado por uma combinação de doadores filantrópicos e empresas do sector, incluindo a Anthropic, a OpenAI Foundation e a Pinterest, as mesmas empresas cujos produtos pretende escrutinar.
Garante manter plena independência editorial nas suas conclusões e a sua política de gestão de conflitos de interesses impede que empregados ou afiliados atuais dos financiadores integrem o conselho consultivo.
Outra vertente do modelo passa por devolver à indústria as ferramentas que desenvolver e testar, e o instituto planeia criar avaliações em código aberto que os programadores de IA possam aplicar aos seus próprios modelos.