Reações à Lei da IA da UE: especialistas dizem que a primeira lei de IA do mundo é "histórica" mas "agridoce"

O logótipo da OpenAI é apresentado num telemóvel com uma imagem num ecrã de computador gerada pelo modelo texto-imagem Dall-E do ChatGPT.
O logótipo da OpenAI é apresentado num telemóvel com uma imagem num ecrã de computador gerada pelo modelo texto-imagem Dall-E do ChatGPT. Direitos de autor Michael Dwyer/AP Photo
Direitos de autor Michael Dwyer/AP Photo
De  Pascale Davies
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button
Artigo publicado originalmente em inglês

Pela primeira vez no mundo, a UE aprovou legislação para regulamentar a inteligência artificial, mas enquanto alguns argumentam que não vai suficientemente longe, outros dizem que pode prejudicar as empresas com "restrições adicionais".

PUBLICIDADE

Os decisores políticos europeus apressaram-se a lançar regras e avisos às empresas tecnológicas desde o lançamento do ChatGPT e a semana passada foi monumental no estabelecimento das regras de inteligência artificial (IA) da UE.

Na quarta-feira, o Parlamento Europeu aprovou a Lei da Inteligência Artificial, que adopta uma abordagem baseada no risco para garantir que as empresas lançam produtos que cumprem a lei antes de serem disponibilizados ao público.

Um dia depois, a Comissão Europeia solicitou ao Bing, Facebook, Google Search, Instagram, Snapchat, TikTok, YouTube e X, ao abrigo de legislação separada, que explicassem como estão a limitar os riscos da IA generativa.

Embora a UE esteja sobretudo preocupada com as alucinações da IA (quando os modelos cometem erros e inventam coisas), a disseminação viral de deepfakes e a manipulação automatizada da IA que poderia induzir em erro os eleitores nas eleições, a comunidade tecnológica tem as suas próprias queixas em relação à legislação, enquanto alguns investigadores dizem que não vai suficientemente longe.

Monopólios tecnológicos

Embora Bruxelas mereça "um verdadeiro crédito" por ser a primeira jurisdição a nível mundial a aprovar uma regulamentação que atenua os muitos riscos da IA, existem vários problemas com o acordo final, disse Max von Thun, diretor europeu do Open Markets Institute.

Existem "lacunas significativas para as autoridades públicas" e "uma regulamentação relativamente fraca dos modelos de fundação maiores que representam os maiores danos", disse à Euronews Next.

Os modelos de base são modelos de aprendizagem automática que são treinados com base em dados e podem ser utilizados para realizar uma série de tarefas, como escrever um poema, por exemplo. O ChatGPT é um modelo de base.

No entanto, a maior preocupação de von Thun são os monopólios tecnológicos.

"A Lei da IA é incapaz de lidar com a principal ameaça que a IA representa atualmente: o seu papel no aumento e consolidação do poder extremo que algumas empresas de tecnologia dominantes já têm nas nossas vidas pessoais, nas nossas economias e nas nossas democracias", afirmou.

Da mesma forma, von Thun defende que a Comissão Europeia deve ser cautelosa com o abuso monopolista no ecossistema de IA.

"A UE deve entender que a escala dos riscos colocados pela IA está inextricavelmente ligada à escala e ao poder das empresas dominantes que desenvolvem e implementam essas tecnologias. Não é possível lidar com sucesso com o primeiro enquanto não se abordar o segundo", disse von Thun.

A ameaça de monopólios de IA foi objeto de destaque no mês passado, quando se soube que a empresa francesa Mistral AI estava a formar uma parceria com a Microsoft.

Para algumas pessoas na UE, foi um choque, uma vez que a França tinha insistido em concessões à Lei da IA para empresas de fonte aberta como a Mistral.

Arthur Mensch, cofundador e CEO da Mistral AI
Arthur Mensch, cofundador e CEO da Mistral AIToby Melville/Pool Photo via AP, File

"Momento histórico

Mas várias empresas em fase de arranque saudaram a clareza que o novo regulamento traz.

"A adoção final pelo Parlamento Europeu da Lei da IA da UE é simultaneamente um momento histórico e um alívio", afirmou Alex Combessie, cofundador e diretor-executivo da empresa francesa de IA de fonte aberta Giskard.

"Embora a lei imponha restrições e regras adicionais aos criadores de sistemas de IA de alto risco e modelos de fundação, considerados como 'riscos sistémicos', estamos confiantes de que estes controlos e equilíbrios podem ser implementados de forma eficaz", disse à Euronews Next.

"Este momento histórico abre caminho para um futuro em que a IA é aproveitada de forma responsável, promovendo a confiança e garantindo a segurança de todos", acrescentou.

A legislação funciona distinguindo os riscos colocados pelos modelos de fundação, que se baseiam no poder de computação que os treina. Os produtos de IA que excedem o limiar da potência de computação são objeto de uma regulamentação mais rigorosa.

PUBLICIDADE

A classificação é vista como um ponto de partida e, tal como outras definições, pode ser revista pela Comissão.

"Bem público"

Mas nem toda a gente concorda com esta classificação.

"Do meu ponto de vista, os sistemas de IA utilizados no espaço da informação devem ser classificados como de alto risco, exigindo que cumpram regras mais rigorosas, o que não é explicitamente o caso na Lei da IA da UE adoptada", afirmou Katharina Zügel, gestora de políticas do Fórum sobre Informação e Democracia.

"A Comissão, que tem a capacidade de modificar os casos de utilização de sistemas de alto risco, poderia mencionar explicitamente os sistemas de IA utilizados no espaço de informação como sendo de alto risco, tendo em conta o seu impacto nos direitos fundamentais", disse à Euronews Next.

"As empresas privadas não podem ser as únicas a conduzir o nosso futuro comum. A IA deve ser um bem público", acrescentou.

PUBLICIDADE

Mas outros defendem que as empresas também precisam de ter uma palavra a dizer e de poder trabalhar com a UE.

"É vital que a UE aproveite o dinamismo do sector privado, que será a força motriz do futuro da IA. Conseguir isso será importante para tornar a Europa mais competitiva e atraente para os investidores", disse Julie Linn Teigland, sócia-gerente da EY para a Europa, Médio Oriente, Índia e África (EMEIA).

É vital que a UE aproveite o dinamismo do sector privado, que será a força motriz do futuro da IA. Conseguir fazer isto corretamente será importante para tornar a Europa mais competitiva e atrativa para os investidores.
Julie Linn Teigland
Sócia-gerente da EY

No entanto, Teigland defende que as empresas da UE e de outros países devem ser proativas e preparar-se para a entrada em vigor da lei, o que significa "tomar medidas para garantir que têm um inventário atualizado dos sistemas de IA que estão a desenvolver ou a implementar e determinar a sua posição na cadeia de valor da IA para compreender as suas responsabilidades legais".

"Sabor agridoce"

Para as empresas em fase de arranque e para as pequenas e médias empresas, isso pode significar muito mais trabalho.

"Esta decisão tem um sabor agridoce", afirmou Marianne Tordeux Bitker, directora de assuntos públicos da France Digitale.

PUBLICIDADE

"Embora a Lei da IA responda a um grande desafio em termos de transparência e ética, cria obrigações substanciais para todas as empresas que utilizam ou desenvolvem inteligência artificial, apesar de alguns ajustes previstos para startups e PMEs, nomeadamente através de ambientes regulados experimentais", diz Bitker.

"Receamos que o texto se limite a criar barreiras regulamentares adicionais que beneficiarão a concorrência americana e chinesa e reduzirão as nossas oportunidades para o surgimento de campeões europeus de IA", acrescentou.

O logótipo OpenAI numa imagem gerada pelo modelo texto-imagem Dall-E do ChatGPT
O logótipo OpenAI numa imagem gerada pelo modelo texto-imagem Dall-E do ChatGPTAP Photo/Michael Dwyer, File

"Implementação efetiva"

Apesar de o AI Act estar concluído, a sua implementação é o próximo desafio.

"Agora, o foco passa a ser a sua implementação e aplicação efetiva. Isto também requer uma atenção renovada à legislação complementar", disse à Euronews Next Risto Uuk, diretor de investigação da UE no Instituto Future of Life, sem fins lucrativos.

Essa legislação complementar inclui a Diretiva de Responsabilidade da IA, destinada a ajudar nas reivindicações de responsabilidade por danos causados por produtos e serviços habilitados para IA, e o Gabinete de IA da UE, que visa simplificar a aplicação das regras.

PUBLICIDADE

"Os aspectos fundamentais para garantir que a lei vale o papel em que está escrita são que o Gabinete de IA tenha recursos para desempenhar as tarefas que lhe foram atribuídas e que os códigos de práticas para a IA de uso geral sejam bem redigidos com a inclusão da sociedade civil", disse.

Partilhe esta notíciaComentários

Notícias relacionadas

UE pioneira na adoção de regras abrangentes sobre Inteligência Artificial

Inteligência artificial revela textos com quase 2000 anos

"Ninguém vai sair da Europa devido à Lei da Inteligência Artificial"