Política da UE. "Potencialmente desastroso" para a inovação: setor tecnológico diz que a Lei da IA da UE vai longe

A UE chegou a acordo sobre regras provisórias em matéria de IA, mas o sector tecnológico afirma que essas regras asfixiam a concorrência
A UE chegou a acordo sobre regras provisórias em matéria de IA, mas o sector tecnológico afirma que essas regras asfixiam a concorrência Direitos de autor Canva
De  Pascale Davies
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button
Artigo publicado originalmente em inglês

O Ato Europeu sobre a IA ainda não está definido e as eleições europeias podem vir a agitar as coisas. Mas, de momento, a indústria tecnológica receia que a lei possa asfixiar a concorrência.

PUBLICIDADE

Aprovada após uma maratona de 36 horas de negociações , a Lei da IA da UE está a ser saudada como histórica, mas as reações do setor tecnológico do continente, dos grupos de defesa dos direitos e dos políticos são mistas.

A União Europeia aprovou na passada sexta-feira o primeiro conjunto de regras provisórias do mundo para regulamentar a inteligência artificial (IA), mas os pormenores do texto legislativo ainda estão a ser definidos.

Um dos pontos de discórdia que levou às negociações foi a forma como os modelos de fundação, a tecnologia que está na base do ChatGPT da OpenAI, seriam regulamentados.

"Nunca é uma boa ideia

A França e a Alemanha alertaram para o perigo de uma regulamentação excessiva, uma vez que pretendem proteger as suas campeãs de IA em fase de arranque.

"Podemos decidir regulamentar muito mais rapidamente e com muito mais força do que os nossos principais concorrentes. Mas vamos regulamentar coisas que já não vamos produzir ou inventar. Isto nunca é uma boa ideia", afirmou o Presidente francês Emmanuel Macron.

"Quando olho para a França, é provavelmente o primeiro país em termos de inteligência artificial na Europa continental. Estamos a par e passo com os britânicos. Eles não terão este regulamento sobre modelos de base. Mas, acima de tudo, estamos todos muito atrás dos chineses e dos americanos", acrescentou, referindo-se à empresa francesa Mistral.

A UE planeia regulamentar os modelos de base, garantindo que os criadores fornecem documentação que inclui métodos e dados de treino. Também serão regulados dando aos utilizadores o direito de apresentar queixas e proibindo-os de serem discriminados.

As empresas que não cumprirem as regras podem ser objeto de coimas de 35 milhões de euros ou 7% das receitas globais. Há quem diga que isto vai longe de mais.

"Consequências potencialmente desastrosas"

A Associação da Indústria de Computadores e Comunicações afirmou que o texto se afasta largamente da "abordagem sensata baseada no risco" proposta pela Comissão, que dá prioridade à inovação em detrimento de uma regulamentação demasiado prescritiva.

A organização afirmou que a lei impõe "obrigações rigorosas" aos criadores de tecnologias de ponta que estão na base de muitos sistemas . Esta situação poderá conduzir a um êxodo de talentos no domínio da IA, alertou.

"Lamentavelmente, a rapidez parece ter prevalecido sobre a qualidade, com consequências potencialmente desastrosas para a economia europeia. O impacto negativo poderá ser sentido muito para além do sector da IA", afirmou Daniel Friedlaender, vice-presidente sénior e diretor da CCIA Europe.

Não apoia os campeões da Europa

A France Digitale, uma organização independente que representa as empresas europeias em fase de arranque e os investidores, afirmou que a IA na categoria de alto risco terá de obter uma marca CE, que é um processo longo e dispendioso, o que poderá prejudicar as empresas em fase de arranque.

Mas o grupo congratulou-se com o facto de as empresas em fase de arranque que operam em setores de alto risco poderem apresentar uma petição contra o estatuto e demonstrar que a sua IA não é de alto risco e que deve ser recategorizada.

A France Digitale considera que o regulamento é "muito rigoroso" e poderá prejudicar as empresas, uma vez que estas terão de divulgar os seus modelos de negócio privados, que outras empresas poderão copiar. Alertou ainda para o facto de a Comissão poder acrescentar outros critérios, o que pode ser arriscado para as empresas em fase de arranque que "precisam de visibilidade e previsibilidade para desenvolver os seus modelos de negócio".

"Aceitar" as regras dos direitos de autor

A maior parte dos modelos de IA têm por base material encontrado online, o que deu origem a uma série de ações judiciais por direitos de autor por parte de artistas e das empresas que os representam .

A lei tem regras rigorosas em matéria de direitos de autor, que incluem a obrigação de respeitar a atual legislação da UE em matéria de direitos de autor. As empresas devem também tornar público um resumo dos conteúdos que utilizam para treinar modelos de IA de uso geral.

Este requisito de transparência e a política de adesão às regras atuais da UE foram bem acolhidos pelas Sociedades de Autores Europeias (GESAC), que representam 32 sociedades de autores e mais de um milhão de autores.

Cibersegurança e reconhecimento facial

A Lei da IA da UE impõe restrições rigorosas à tecnologia de reconhecimento facial e a outros sinais comportamentais, salvo exceções para efeitos de aplicação da lei. As restrições  foram bem acolhidas, tal como as regras de proteção de dados.

PUBLICIDADE

Embora não exista legislação específica para proteger os dados, a lei foi concebida para funcionar em conjunto com as regras do RGPD, o regulamento de proteção de dados da UE.

No entanto, Valmiki Mukherjee, executivo do setor da cibersegurança, disse à Euronews Next que a lei poderá enfrentar desafios semelhantes aos do RGPD.

"Aplicar a lei a sistemas de IA de uso geral sem restringir o seu uso, rotulando-os como de alto risco, pode ser um desafio", disse ele.

Preparar o futuro de uma tecnologia poderosa

Embora o projeto de texto original ainda esteja a ser finalizado, um processo que, segundo alguns comentadores, poderá prolongar-se até janeiro de 2024 ou mesmo mais tarde, existe uma outra pressão temporal, as novas eleições para o Parlamento Europeu em junho.

"Não parece haver tempo suficiente antes das eleições para o Parlamento Europeu para que a diretiva relativa à responsabilidade em matéria de IA passe pelo processo legislativo, pelo que terá de ser retomada pelo novo Parlamento e pela nova Comissão que este nomear", afirmou Benjamin Docquir, responsável pela área de TI e dados do gabinete jurídico internacional Osborne Clarke.

PUBLICIDADE

O novo Parlamento Europeu poderá também ter de decidir sobre a legislação relativa à IA no local de trabalho.

Outro fator a decidir será a regulamentação do software de IA de código aberto, que permite que o código informático seja livremente copiado e reutilizado, o que dá a qualquer pessoa autorização para construir o seu próprio chatbot. A OpenAI e a Google alertaram para o facto de o software de código aberto poder ser perigoso, uma vez que a tecnologia pode ser utilizada para espalhar desinformação.

Partilhe esta notíciaComentários

Notícias relacionadas

Apple alerta: pare de colocar o seu iPhone danificado pela água no arroz

Porque é que o hacker e fundador do WikiLeaks Julian Assange enfrenta a extradição para os EUA?

A ascensão do chatbot Hitler: Será a Europa capaz de impedir a radicalização da extrema-direita através da IA?