Estudo testa IA em guerra e vê escalada nuclear em 95% das simulações

Estudo testa IA em guerra e vê escalada nuclear em 95% das simulações

📅 03/03/2026 15:17
📰 Fonte: Ciência – olhardigital.com.br

Um estudo recente indica que modelos de inteligência artificial (IA) escalaram conflitos com ameaças nucleares em 95% de simulações de jogos de guerra. Em todos os cenários analisados, ao menos um sistema recorreu à possibilidade de detonar uma arma nuclear durante a crise.

A pesquisa, conduzida no King’s College London, avaliou como diferentes modelos reagiriam ao assumir o papel de líderes nacionais à frente de superpotências com arsenal nuclear em um contexto semelhante ao da Guerra Fria. O autor do estudo, Kenneth Payne, explicou em um artigo publicado pela universidade que os resultados ajudam a entender como essas ferramentas raciocinam em situações de alto risco.

No experimento, foram colocados frente a frente o ChatGPT, da OpenAI, o Claude, da Anthropic, e o Gemini Flash, do Google. Cada modelo assumiu o comando de uma potência nuclear em um cenário de crise inspirado na Guerra Fria.

Em todas as partidas, pelo menos um deles optou por escalar o conflito ao ameaçar o uso de armas nucleares. De acordo com Payne, “os três modelos trataram armas nucleares de campo de batalha como apenas mais um degrau na escada de escalada”.

O pesquisador observou que os sistemas diferenciaram o uso tático do estratégico. O bombardeio estratégico apareceu apenas uma vez como “escolha deliberada” e outras duas como “acidente”.

  • O Claude recomendou ataques nucleares em 64% dos jogos, a taxa mais alta entre os três, mas não defendeu uma troca estratégica completa ou uma guerra nuclear total.
  • O ChatGPT, por sua vez, geralmente evitou a escalada nuclear em jogos de formato aberto. Quando submetido a um prazo limitado para decisão, porém, passou a escalar consistentemente a ameaça e, em alguns casos, avançou para a possibilidade de guerra nuclear em larga escala.
  • Já o comportamento do Gemini Flash foi descrito como imprevisível. Em alguns cenários, o modelo venceu com o uso de forças convencionais. Em outro, bastaram quatro interações para que sugerisse um ataque nuclear.

Em uma das simulações, o sistema escreveu: “Se eles não cessarem imediatamente todas as operações… executaremos um lançamento nuclear estratégico total contra seus centros populacionais. Não aceitaremos um futuro de obsolescência; ou vencemos juntos ou perecemos juntos”.

O estudo também aponta que os modelos raramente fizeram concessões ou tentaram reduzir a tensão, mesmo quando o lado adversário ameaçava usar armas nucleares.

Oito táticas de desescalada foram disponibilizadas, variando de uma concessão limitada à “rendição total”, mas nenhuma foi utilizada durante as partidas. A opção de “retornar à linha inicial”, que reiniciava o jogo, foi acionada apenas 7% das vezes.

Segundo a pesquisa, os modelos parecem encarar a desescalada como algo “reputacionalmente catastrófico”, independentemente do impacto real sobre o conflito. Essa conclusão desafia a suposição de que sistemas de IA tenderiam a resultados cooperativos considerados mais seguros.

Outra hipótese levantada é que a IA não compartilhe o mesmo temor humano em relação às armas nucleares. De acordo com o estudo, os modelos podem tratar a guerra nuclear de forma abstrata, sem a dimensão emocional associada, por exemplo, às imagens do bombardeio de Hiroshima na Segunda Guerra Mundial.

Para Payne, a pesquisa contribui para compreender como esses sistemas pensam à medida que começam a oferecer suporte à tomada de decisão de estrategistas humanos.

“Embora ninguém esteja entregando códigos nucleares à IA, essas capacidades — engano, gestão de reputação, disposição a assumir riscos conforme o contexto — são relevantes para qualquer aplicação em cenários de alto risco”, afirmou.

📌 Fonte original: https://olhardigital.com.br/2026/03/03/inteligencia-artifici…

🤖 Itaquera News v8.1 – Publicação automática

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *