Última hora

Última hora

IA: Stephen Hawking e Elon Musk contra o desenvolvimento de armas inteligentes

A Inteligência Artificial sempre foi um dos maiores fascínios e, ao mesmo tempo, medos do homem. Há séculos que os cientistas tentam criar uma

Em leitura:

IA: Stephen Hawking e Elon Musk contra o desenvolvimento de armas inteligentes

Tamanho do texto Aa Aa

A Inteligência Artificial sempre foi um dos maiores fascínios e, ao mesmo tempo, medos do homem. Há séculos que os cientistas tentam criar uma máquina com inteligência autónoma mas não são raros os avisos de que esse projeto pode tornar-se fatal para o criador. No cinema não faltam exemplos de como uma máquina com inteligência autónoma pode tentar terminar com a vida do criador (ex: “Exterminador Implacável” ou “Eu, Robô”).

Movidos por esse receio, vários cientistas mundiais, que se dedicam ao desenvolvimento da robótica, lançaram um apelo para que sejam banidas todas as armas autónomas. A carta aberta, publicada pelo instituto norte-americano “Future of Life” é assinada por Stephen Hawking, Elon Musk, Noam Chomsky, Steve Mozniak, entre outros.

Pode ler a carta aqui (em inglês)

Os signatários escrevem: “hoje, a questão-chave para a humanidade é se deve começar uma corrida global para a criação de armas inteligentes ou se deve impedir que comece.”

Na carta lançam um aviso sobre as armas que não necessitam de qualquer ação humana para despoletar ataques: “A tecnologia de Inteligência Artificial (IA) chegou a um ponto que a implantação [de armas autónomas] é possível e viável dentro de anos e não décadas. Os riscos são elevados: as armas autónomas têm sido descritas como a terceira revolução na guerra, depois da pólvora e das armas nucleares “.

No documento, elaboraram uma lista de algumas das vantagens de armas dotadas de IA (ex: menos perdas humanas) e uma lista, maior, de inconvenientes e consequências perigosas, caso essas armas se tornassem realidade (ex: produção em massa, relativamente, barata, poderiam, facilmente, ser comercializadas no mercado negro ou acabar nas mãos de ditadores, terroristas, senhores da guerra etc). Advertem ainda que caso nada seja feito, “as armas autónomas podem tornar-se nas Kalashnikovs de amanhã”.

Os signatários, na sua maioria cientistas na área da robótica, não rejeitam a ciência: “há muitas maneiras para que a IA possa tornar mais seguros os campos de batalha para os seres humanos, especialmente os civis, sem criar novas ferramentas para matar pessoas.”

Contudo, nem todos os cientistas concordam com esta visão catastrofista. Num blogue, em 2014, um investigador australiano, Rodney Brooks, defendia que a Inteligência Artificial é uma ferramenta e não uma ameaça.

Consulte aqui o blogue (inglês)

Brooks, que fundou a empresa de robótica RethinkRobotics afirma que considera “um erro estarmos a preocupar-nos sobre desenvolvermos uma IA malévola, nos próximos cem anos. O cientista afirma que essa “preocupação decorre de um erro fundamental em não distinguir a diferença entre os recentes avanços, num aspeto particular da Inteligência Artificial, e a enorme complexidade de construção de inteligência volitiva consciente “.

O investigador não vislumbra a chegada de um apocalipse com armas inteligentes: “para que haja uma IA, com vontade, sucedida, especialmente uma que possa ser malévola, necessitaria de uma compreensão direta do mundo, de ter mãos hábeis ou outras ferramentas de modo a poder manipular as pessoas e precisaria ter um profundo conhecimento dos humanos de modo a conseguir ludibriar-nos. Será necessária uma profunda reflexão e o trabalho árduo de milhares de cientistas e engenheiros. E, mais provavelmente, demorará séculos “.

Brooks conclui: “Preocupar-se com o facto de que a IA pode ser intencionalmente má para nós é puro medo e uma imensa perda de tempo. Continuemos a inventar uma cada vez melhor Inteligência Artificial.”