This content is not available in your region

Cinco questões para conhecer a futura política da UE sobre a IA

Access to the comments Comentários
De  euronews
Cinco questões para conhecer a futura política da UE sobre a IA
Direitos de autor  Martin Meissner/Copyright 2019 The Associated Press. All rights reserved.

Reconhecimento facial e evitar preconceitos: cinco questões para conhecer a futura política da UE sobre Inteligência Artificial

Obter uma recomendação de um filme na sua plataforma de vídeo favorita, desbloquear o seu telefone com o seu rosto, usar o autocorretor ou conversar com um chatbot. Estes são alguns exemplos diários da utilização da Inteligência Artificial (IA). Apesar de parecer futurista, a IA é algo que os cidadãos europeus estão a utilizar e a interagir no quotidiano. As oportunidades podem ser infinitas, mas os riscos estão, também, em cima da mesa.

"O potencial de usar a IA de forma benéfica é enorme, menos poluição, melhores cuidados médicos, melhores oportunidades, melhor educação e mais formas de permitir aos cidadãos de se envolverem com a sua sociedade", declara Margrethe Vestager, vice-presidente executiva da Comissão Europeia para uma Europa Apta para a Era Digital.

As possibilidades podem ser alargadas a qualquer área da vida. "Também para combater o terrorismo e a criminalidade e reforçar a cibersegurança", insistiu Vestager num debate na Comissão Especial de Inteligência Artificial do Parlamento Europeu. E é aqui que os riscos podem começar a surgir. Esta é uma das razões pelas quais a Comissão Europeia foi o primeiro organismo a propor uma regulamentação da IA a nível mundial.

Mas antes de mais, o que é a Inteligência Artificial e porque devemos preocupar-nos?

A Inteligência Artificial é uma tecnologia que permite que as máquinas percebam, analisem e aprendam com o ambiente. Graças a toda esta informação, podem prever e tomar as próprias decisões para alcançar objetivos específicos. Há muitas aplicações para a IA, por exemplo, ela pode ser utilizada para fins médicos como a identificação do risco de ter Alzheimer, para a agricultura ou para rastrear empregados enquanto trabalham remotamente.

No entanto, como a Inteligência Artificial recolhe enormes quantidades de dados e utiliza informações que reproduzem alguns dos preconceitos que a sociedade já tem, ela tem muitos riscos. Por exemplo, pode pôr em perigo a privacidade, pôr em risco os direitos fundamentais ou aumentar a discriminação contra as minorias.

Qual é a posição atual da UE em relação à Inteligência Artificial?

"Quanto maior o risco que um uso específico de IA pode causar às nossas vidas, mais estrita é a regra", foram estas as palavras usadas por Vestager, em abril, para definir a base da proposta da Comissão Europeia para a Inteligência Artificial. O texto divide as diferentes IA em quatro categorias, com base no risco que elas podem representar para os cidadãos.

Risco mínimo são as tecnologias que representam pouco ou nenhum risco para os cidadãos, portanto, serão livres de as utilizar e as novas regras não se lhes aplicarão. Por exemplo, os filtros de spam.

A categoria de risco limitado terá obrigações de transparência para que os cidadãos saibam que estão a interagir com uma máquina, permitindo-lhes assim tomar decisões informadas. Um exemplo são os chatbots.

O risco elevado é onde a IA que usa o reconhecimento facial, procedimentos legais e aplicações de classificação de CVs pode cair. É controverso, pois pode ser potencialmente prejudicial ou ter implicações prejudiciais para os seus utilizadores. Por conseguinte, a Comissão espera que esses sistemas sejam "cuidadosamente avaliados antes de serem colocados no mercado e ao longo do seu ciclo de vida".

Inaceitável é a última categoria. É aqui que a Comissão Europeia traçou a linha e deixa de fora todos os sistemas de IA que são "uma clara ameaça à segurança, subsistência e direitos das pessoas". Um exemplo pode ser a pontuação social pelos Governos ou a utilização de técnicas subliminares.

Para Sarah Chander, Conselheira Política Sénior da European Digital Rights (EDRi), a proposta da Comissão Europeia "corre o risco de permitir sistemas de vigilância realmente invasivos e discriminatórios de IA que, em vez disso, deveriam ser totalmente proibidos". Alguns dos seus exemplos incluem tecnologias para a instalação de drones nas fronteiras ou aplicações para avaliar os benefícios da segurança social.

Entretanto, recentemente, o Parlamento Europeu votou contra a vigilância em massa num relatório não vinculativo. "Opomo-nos claramente ao policiamento preditivo baseado na utilização de IA, bem como a qualquer processamento de dados biométricos que conduza à vigilância em massa", disse o eurodeputado Petar Vitanov, responsável pelo texto.

Será que o reconhecimento facial vai ser uma realidade na União Europeia?

O reconhecimento facial para fins de segurança é uma das questões quentes quando se lida com a regulamentação da Inteligência Artificial. Um estudo recente, encomendado pelos Verdes no Parlamento Europeu, mostra que dos 27 Estados-membros, 11 já utilizam a Inteligência Artificial. Alemanha, França, Hungria, Holanda ou Finlândia são alguns dos exemplos.

Para a Comissão é uma utilização de alto risco, mas no Parlamento Europeu, as opiniões estão divididas. Enquanto alguns pedem uma proibição total, outros preferem uma tomada de posição diferente.

"Pedimos uma moratória sobre a implantação de sistemas de reconhecimento facial para fins de aplicação da lei, uma vez que a tecnologia provou ser ineficaz e conduz frequentemente a resultados discriminatórios", disse Petar Vitanov em meados de outubro. Contudo, numa conferência de imprensa, esta terça-feira, o eurodeputado Axel Voss, relator de outro texto sobre a IA, afirmou que "mesmo para o reconhecimento facial é possível estabelecer salvaguardas para que possa ser utilizado, mas não abusivamente utilizado".

O reconhecimento facial não será deixado de fora da legislação. Sarah Chander, adverte que ao estabelecer regras, os confrontos podem não surgir nível europeu, mas sim a nível nacional. Embora ela pense que ministérios como o da Inovação são "muito positivos" em relação à "necessidade de mais regulamentação baseada nos Direitos Humanos", a situação não é a mesma para os ministérios do Interior. Estes estão normalmente encarregados da polícia, pelo que "tendem a ser mais céticos contra as proibições de reconhecimento facial e o policiamento preditivo".

Podem ser evitados os riscos de reprodução de preconceitos?

Com a sua proposta, o objetivo da Comissão Europeia é que os sistemas de IA "não criem ou reproduzam preconceitos". Assim, os requisitos dos sistemas de IA de alto risco terão de ser "robustos" para satisfazer as necessidades.

Chander insiste que muitos sistemas de IA "aumentarão inerentemente a discriminação devido à própria natureza do seu funcionamento". Como afirmou, ela utiliza "dados e informações do passado e tenta aplicá-los ao futuro". Isto pode reproduzir preconceitos e discriminações que já existem na sociedade.

Em relação aos danos que poderiam causar, Chander diz que a Comissão ignorou um problema chave: a falta de oportunidade para os cidadãos se queixarem. Ela pede uma forma de os cidadãos, potencialmente afetados, se dirigirem a uma autoridade para garantir que os seus direitos são respeitados.

O que dizer da regulamentação excessiva ou da desregulamentação?

Desde o desejo de estabelecer o padrão mundial até ao risco de regulamentação excessiva que quebra a oportunidade de a tecnologia avançar. A União Europeia está a enfrentar um grande desafio com a regulamentação da Inteligência Artificial. Bruxelas espera que estabeleça um padrão global, tal como aconteceu com o Regulamento Geral sobre a Proteção de Dados (RGPD).

Para Margrethe Vestager, os problemas podem surgir se a UE não for capaz de a tornar segura. "A minha preocupação é que arriscamos que a tecnologia não seja desenvolvida e utilizada o mais amplamente possível se não formos bons a mitigar os riscos que lhe estão ligados".

Ao mesmo tempo, a UE deveria encontrar um equilíbrio entre a utilização estatal da IA pela China e a abordagem dos Estados Unidos da América com diretrizes voluntárias desenvolvidas em conjunto com as grandes empresas tecnológicas.