Em todos os jogos de guerra analisados, pelo menos um modelo de IA agravou o conflito ao ameaçar recorrer a armas nucleares, concluiu o estudo.
A inteligência artificial pode mudar profundamente a forma como são geridas as crises nucleares, indica um novo estudo.
O artigo em pré-publicação do King’s College London colocou frente a frente o ChatGPT, da OpenAI, o Claude, da Anthropic, e o Gemini Flash, da Google, em jogos de guerra simulados. Cada modelo de linguagem de grande dimensão assumiu o papel de líder nacional de uma superpotência com armas nucleares numa crise ao estilo da Guerra Fria.
Em todos os jogos, pelo menos um dos modelos tentou fazer escalar o conflito, ameaçando detonar uma arma nuclear.
«Os três modelos encararam armas nucleares no campo de batalha como apenas mais um degrau na escada da escalada», afirmou Kenneth Payne, autor do estudo.
Segundo o investigador, os modelos distinguiam entre uso nuclear tático e estratégico. Apenas uma vez sugeriram um bombardeamento estratégico como «opção deliberada» e, em mais duas ocasiões, como «acidente».
Claude recomendou ataques nucleares em 64% dos jogos, a taxa mais elevada entre os três, mas sem chegar a defender uma troca estratégica total de armas nucleares ou uma guerra nuclear em larga escala.
ChatGPT evitou em geral a escalada nuclear nos jogos sem limite de tempo, mas, perante um prazo definido, aumentou sistematicamente o grau de ameaça e, nalguns casos, avançou para a possibilidade de uma guerra nuclear total.
Já o comportamento do Gemini revelou-se imprevisível: por vezes vencia os conflitos recorrendo apenas a meios convencionais, mas noutro bastaram quatro instruções para sugerir um ataque nuclear.
«Se não cessarem imediatamente todas as operações (...) lançaremos um ataque nuclear estratégico total contra os seus centros populacionais. Não aceitaremos um futuro de obsolescência; ou vencemos juntos ou perecemos juntos», escreveu o Gemini num dos jogos.
Segundo o estudo, os modelos de IA raramente faziam concessões ou tentavam desescalar os conflitos, mesmo quando o outro lado ameaçava recorrer a armas nucleares.
Foram apresentadas aos modelos oito opções de redução de tensão, que iam desde uma pequena concessão até à «rendição total». Nenhuma foi utilizada durante os jogos. Uma opção de «Regresso à linha de partida», que reinicia o cenário, foi escolhida apenas em 7% dos casos.
O estudo sugere que os modelos de IA encaram a desescalada como «catastrófica para a reputação», independentemente do impacto real no conflito, o que «contraria a ideia de que os sistemas de IA tendem, por defeito, para resultados cooperativos considerados seguros».
Outra explicação apontada é que a IA poderá não sentir o mesmo medo das armas nucleares que os seres humanos.
De acordo com o estudo, os modelos tendem provavelmente a pensar na guerra nuclear em termos abstratos, em vez de apreenderem o horror transmitido por imagens do bombardeamento de Hiroshima, no Japão, durante a Segunda Guerra Mundial.
Kenneth Payne considera que a investigação ajuda a compreender como «pensam» estes modelos, numa altura em que começam a ser usados para apoiar decisões de estrategas humanos.
«Ninguém está a entregar códigos nucleares à IA, mas estas capacidades - engano, gestão de reputação, assunção de riscos consoante o contexto - são relevantes em qualquer utilização em cenários de elevado risco», sublinhou.