UE define quatro níveis de risco para a inteligência artificial

UE define quatro níveis de risco para a inteligência artificial
Direitos de autor MAURO PIMENTEL/AFP
De  Isabel Marques da SilvaAida Valiente
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button
Copiar/colar o link embed do vídeo:Copy to clipboardCopied

As regras serão postas em prática com um novo Plano Coordenado com os Estados-membros, de modo a tirar o melhor proveito desta área de grande inovação tecnológica.

PUBLICIDADE

Como aproveitar o potencial da tecnologia que usa Inteligência Artificial (IA) sem colocar em risco os direitos fundamentais dos cidadãos?

A utilização de sistemas de identificação biométrica em espaços públicos será proibida na União Europeia. Essa é uma das propostas no pacote legislativo apresentado, quarta-feira, pelo executivo comunitário.

As regras serão postas em prática com um novo Plano Coordenado com os Estados-membros, de modo a tirar o melhor proveito desta área de grande inovação tecnológica.

“A nossa proposta legislativa não encara a IA como uma tecnologia que tem valor por si própria. Em vez disso, visa enquadrar a forma como a IA deve ser usada. É necessária uma abordagem proporcional e baseada no risco, enquadrada numa lógica simples: quanto maior for o risco de alguns dos usos específicos da IA nas nossas vidas, mais rígida será a regra”, explicou Margrethe Vestager, vice-presidente da Comissão Europeia.

A Comissão Europeia pretende estabelecer quatro categorias:

  • O risco mínimo aplica-se na maioria dos casos a programas básicos e gratuitos, como por exemplo, os filtros para travar correio eletrónico indesejado
  • No risco limitado estão programas que implicam maior interação entre o cidadão e o sistema artificial como são as caixas de conversação
  • No alto risco estão programas que devem ter supervisão humana, como é o caso dos sistemas para obter crédito bancário
  • No caso de risco inaceitável, os programas serão banidos, como por exemplo, os usados por governos para fazer categorização social

Exceções em função do contexto?

No que se refere à identificação biométrica, poderá haver exceções quando for estritamente necessário.

Alguns exemplos são os esforços para encontrar uma criança desaparecida ou para travar uma ameaça terrorista específica e iminente.

"Quando falamos, por exemplo, do reconhecimento facial, pode ser feita uma utilização positiva. Por exemplo, usá-la para desbloquear o acesso ao telemóvel. É algo que faço cerca de cem vezes por dia e que acarreta um risco muito menor do que usar esse programa, de forma alargada, em espaços públicos para identificar pessoas. Temos de decidir em função do contexto qual é o melhor uso da IA", defendeu Thomas Boué, diretor-geral da Aliança Software, que agrega membros da indústria.

O Parlamento Europeu e os governos Estados-membros terão de adotar, no âmbito do processo legislativo ordinário, estas propostas da Comissão.

Partilhe esta notíciaComentários

Notícias relacionadas

ONU pede suspensão de sistemas de Inteligência Artificial

Inteligência artificial contra a Covid-19

Inteligência artificial: Um admirável mundo novo em tempo de pandemia