Na carta, funcionários da Google alertam que a tecnologia poderá ser usada pelo Pentágono de formas "desumanas", incluindo vigilância em massa e armas autónomas letais.
Mais de 600 trabalhadores da Google apelaram à empresa para rejeitar um possível acordo com o Pentágono que permitiria usar a sua inteligência artificial em operações militares secretas, indicou um comunicado divulgado esta segunda-feira.
“Queremos que a IA beneficie a humanidade, e não que seja usada de forma desumana ou extremamente prejudicial”, lê-se na carta aberta dirigida ao presidente executivo da Google, Sundar Pichai. “Isto engloba armas letais autónomas e vigilância em massa, mas não se fica por aqui.”
A carta, assinada por pessoal da Google DeepMind, da Cloud e de outras divisões, surge numa altura em que o gigante tecnológico negocia com o Departamento de Defesa dos EUA a possível utilização do seu modelo de IA Gemini em contextos classificados.
Foi assinada publicamente por mais de 20 diretores, diretores séniores e vice-presidentes.
“As tarefas classificadas são, por definição, opacas”, afirmou um dos trabalhadores envolvidos na organização, não identificado no comunicado.
“Neste momento, não há forma de garantir que as nossas ferramentas não sejam usadas para causar danos graves ou para corroer liberdades civis longe do escrutínio público. Falamos de práticas como perfilar indivíduos ou orientar ataques contra civis inocentes.”
Esta carta surge numa altura em que as empresas de tecnologia enfrentam uma pressão crescente para esclarecer de que forma as suas ferramentas de IA podem ser usadas pelos militares e pelos serviços de informações, na sequência de um diferendo entre o Pentágono e a startup de IA Anthropic.
A empresa Anthropic já tinha processado o Departamento de Defesa dos EUA depois de ter sido classificada como “risco para a cadeia de abastecimento”, na sequência do pedido para que os seus sistemas não fossem utilizados para vigilância em massa ou guerra autónoma.
O presidente executivo da Anthropic, Dario Amodei, afirmou que “não pode, em boa consciência, aceder ao pedido do Pentágono” para ter acesso irrestrito aos sistemas de IA da empresa.
“Em determinados casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”, escreveu Amodei. “Algumas utilizações estão simplesmente fora do âmbito do que a tecnologia atual pode fazer de forma segura e fiável.”
Em resposta à decisão de Amodei, o presidente dos EUA, Donald Trump, ordenou aos departamentos governamentais que deixassem de utilizar o chatbot Claude da Anthropic.
Segundo os organizadores da carta, a Google propôs cláusulas contratuais que impediriam a utilização do Gemini para vigilância em massa em território nacional ou para armas autónomas sem controlo humano adequado.
O Pentágono, porém, insiste numa formulação mais abrangente, de “todos os usos legais”, alegando que é necessária para manter a flexibilidade operacional. Trabalhadores afirmam que salvaguardas deste tipo seriam difíceis de aplicar na prática, apontando políticas existentes do Pentágono que limitam o controlo externo sobre os seus sistemas de IA.
A declaração recente dos trabalhadores da Google remete para um protesto anterior de funcionários, em 2018, que levou a empresa a abandonar o Project Maven, uma iniciativa do Pentágono que recorria à IA para analisar imagens de drones.
“Consideramos que a Google não deve estar no negócio da guerra”, lia-se nessa carta.
“Por isso, pedimos que o Project Maven seja cancelado e que a Google elabore, divulgue e faça cumprir uma política clara que estabeleça que nem a empresa nem os seus prestadores de serviços desenvolverão alguma vez tecnologia de guerra.”