Newsletter Boletim informativo Events Eventos Podcasts Vídeos Africanews
Loader
Encontra-nos
Publicidade

Funcionários da Google pedem a CEO que rejeite uso militar secreto de IA "desumana"

Trabalhadores da Google pedem ao presidente executivo que rejeite contrato secreto de IA militar
Funcionários da Google pedem ao CEO que recuse contrato militar secreto de IA Direitos de autor  Credit: AP Photo/Jeff Chiu, File
Direitos de autor Credit: AP Photo/Jeff Chiu, File
De Theo Farrant
Publicado a Últimas notícias
Partilhar Comentários
Partilhar Close Button

Na carta, funcionários da Google alertam que a tecnologia poderá ser usada pelo Pentágono de formas "desumanas", incluindo vigilância em massa e armas autónomas letais.

Mais de 600 trabalhadores da Google apelaram à empresa para rejeitar um possível acordo com o Pentágono que permitiria usar a sua inteligência artificial em operações militares secretas, indicou um comunicado divulgado esta segunda-feira.

PUBLICIDADE
PUBLICIDADE

“Queremos que a IA beneficie a humanidade, e não que seja usada de forma desumana ou extremamente prejudicial”, lê-se na carta aberta dirigida ao presidente executivo da Google, Sundar Pichai. “Isto engloba armas letais autónomas e vigilância em massa, mas não se fica por aqui.”

A carta, assinada por pessoal da Google DeepMind, da Cloud e de outras divisões, surge numa altura em que o gigante tecnológico negocia com o Departamento de Defesa dos EUA a possível utilização do seu modelo de IA Gemini em contextos classificados.

Foi assinada publicamente por mais de 20 diretores, diretores séniores e vice-presidentes.

“As tarefas classificadas são, por definição, opacas”, afirmou um dos trabalhadores envolvidos na organização, não identificado no comunicado.

“Neste momento, não há forma de garantir que as nossas ferramentas não sejam usadas para causar danos graves ou para corroer liberdades civis longe do escrutínio público. Falamos de práticas como perfilar indivíduos ou orientar ataques contra civis inocentes.”

Esta carta surge numa altura em que as empresas de tecnologia enfrentam uma pressão crescente para esclarecer de que forma as suas ferramentas de IA podem ser usadas pelos militares e pelos serviços de informações, na sequência de um diferendo entre o Pentágono e a startup de IA Anthropic.

A empresa Anthropic já tinha processado o Departamento de Defesa dos EUA depois de ter sido classificada como “risco para a cadeia de abastecimento”, na sequência do pedido para que os seus sistemas não fossem utilizados para vigilância em massa ou guerra autónoma.

O presidente executivo da Anthropic, Dario Amodei, afirmou que “não pode, em boa consciência, aceder ao pedido do Pentágono” para ter acesso irrestrito aos sistemas de IA da empresa.

“Em determinados casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”, escreveu Amodei. “Algumas utilizações estão simplesmente fora do âmbito do que a tecnologia atual pode fazer de forma segura e fiável.”

Em resposta à decisão de Amodei, o presidente dos EUA, Donald Trump, ordenou aos departamentos governamentais que deixassem de utilizar o chatbot Claude da Anthropic.

Segundo os organizadores da carta, a Google propôs cláusulas contratuais que impediriam a utilização do Gemini para vigilância em massa em território nacional ou para armas autónomas sem controlo humano adequado.

O Pentágono, porém, insiste numa formulação mais abrangente, de “todos os usos legais”, alegando que é necessária para manter a flexibilidade operacional. Trabalhadores afirmam que salvaguardas deste tipo seriam difíceis de aplicar na prática, apontando políticas existentes do Pentágono que limitam o controlo externo sobre os seus sistemas de IA.

A declaração recente dos trabalhadores da Google remete para um protesto anterior de funcionários, em 2018, que levou a empresa a abandonar o Project Maven, uma iniciativa do Pentágono que recorria à IA para analisar imagens de drones.

“Consideramos que a Google não deve estar no negócio da guerra”, lia-se nessa carta.

“Por isso, pedimos que o Project Maven seja cancelado e que a Google elabore, divulgue e faça cumprir uma política clara que estabeleça que nem a empresa nem os seus prestadores de serviços desenvolverão alguma vez tecnologia de guerra.”

Ir para os atalhos de acessibilidade
Partilhar Comentários

Notícias relacionadas

Japão: Woven City, a cidade futurista onde robôs partilham as ruas com humanos

China impede Meta de comprar startup de IA Manus

Elon Musk e Sam Altman em tribunal por causa da OpenAI: entenda o caso