Que questões levanta o uso da inteligência artificial na guerra?

O uso de drones tornou-se comum em cenários de guerra
O uso de drones tornou-se comum em cenários de guerra Direitos de autor frame
Direitos de autor frame
De  euronews
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button
Copiar/colar o link embed do vídeo:Copy to clipboardCopied

O uso de inteligência artificial em cenários de guerra levanta uma série de questões éticas, legais e técnicas, abordadas nesta reportagem por dois especialistas.

PUBLICIDADE

A Ucrânia lança Brave 1, uma iniciativa ambiciosa para desenvolver tecnologia militar com a ajuda de especialistas de todo o mundo.

Desde sistemas de defesa e segurança cibernética até à criação de armamentos não tradicionais, como armas automatizadas ou autónomas, que, graças à inteligência artificial, poderiam operar de forma independente e mudar para sempre as operações militares.

Mas a sua futura implementação é controversa. O grande debate é qual será o papel dos humanos?

"Há constantemente missões abortadas por questões éticas, legais, técnicas ou simplesmente pela própria evolução do combate", realça Cesar Pintado, professor no CISDE (Campus Internacional de Segurança e Defesa, em Espanha). 

"Isto também envolve uma perda de agência moral porque, com um operador humano, há sempre a possibilidade, em teoria, que um humano possa ter compaixão, empatia e julgamento humano enquanto um sistema que é treinado com base em dados e pré-programado para fazer algo não tem essa opção", sublinha Anna Nadibaidze, que tem uma bolsa de doutoramento no Centro de Estudos de Guerra da Universidade da Dinamarca do Sul.

Cães robôs ou robôs humanoides poderão num futuro não muito distante participar em conflitos armados e evitar um grande número de baixas.

Mas há uma série de riscos, ao usar a inteligência artificial. Os modelos de dados que alimentam os algoritmos podem ter desvios, como erros de identificação facial biométrica ou inexistência de uma avaliação profunda do seu ambiente.

O especialista, Cesar Pintado, dá um exemplo: "Mas o que acontece se um veículo blindado foi capturado pela sua própria força ou ao contrário? E se esse modelo de tanque também estiver a ser usado por forças aliadas ou se estiver momentaneamente próximo de tropas aliadas ou contra zonas vedadas, como um templo ou uma escola?"

"Esta ideia de que os chamados robôs assassinos quase adquirem a sua própria consciência e aparecem no campo de batalha, é uma coisa futurista, da ficção científica e dos filmes, que não é realmente no que o debate se deveria centrar", diz Anna Nadibaidze.

Os cenários inexplorados da inteligência artificial na guerra geram grande preocupação na comunidade internacional. Ao nível civil, especialistas em Inteligência Artificial pediram uma suspensão de seis meses do desenvolvimento desta tecnologia para estudar as suas possíveis consequências. 

Nadibaidze pede aos países que acelerem a sua regulamentação. "Os governos de todo o mundo estão muito interessados e visivelmente interessados em investir e continuar a investir muito dinheiro nestas tecnologias. Há uma necessidade urgente de abordar isso com regras juridicamente vinculativas e enfrentar esses desafios, porque os regulamentos internacionais atuais e o direito humanitário internacional não são suficientes para enfrentar estes desafios", conclui.

Partilhe esta notíciaComentários

Notícias relacionadas

Conselho de Segurança da ONU convoca sessão histórica para debater ameaça da IA à paz mundial

Bruxelas e Google desenvolvem pacto sobre a IA

Não é fácil uma empresa ocidental deixar a Rússia