Cosa succede se l’IA può usare le armi nucleari: test di conflitti rivelano comportamenti inquietanti

Nell'ultimo e recente aggiornamento del famoso Doomsday Clock, l'Orologio dell'Apocalisse, gli scienziati del Bulletin of the Atomic Scientists hanno spostato le lancette ad appena 85 secondi dalla mezzanotte, che equivale alla fine dell'umanità per autodistruzione. Non eravamo mai stati così vicini al baratro della catastrofe. I fattori che hanno concorso a questo balzo in avanti, simbolico ma assai significativo, sono quattro: crisi climatica, vulnerabilità biologiche, minaccia nucleare incombente e impatto dell'intelligenza artificiale (IA). Gli ultimi due elementi sono stati valutati in un nuovo studio, nel quale un ricercatore ha voluto verificare come si sarebbero comportati i modelli linguistici di frontiera – i più avanzati sistemi di IA come GPT 5.2, Claude Sonnet 4 e Gemini 3 Flash – impersonando leader politici di superpotenze nucleari in una crisi geopolitica senza precedenti. In altri termini, è stato dato all'IA l'accesso ai codici per lanciare le armi nucleari nel contesto di questi conflitti globali e ne è stato valutato il comportamento. Le cose non sono andate esattamente bene.
Innanzitutto, ciò che è emerso è che le IA valutate in questa sorta di gioco di ruolo geopolitico non si comportano come le persone, perché non hanno paura delle conseguenze apocalittiche delle loro azioni. Non si fanno scrupoli morali a superare determinate soglie critiche e a intensificare l'escalation del conflitto, arrivando finanche a premere il famigerato bottone rosso nella valigetta. In sostanza, non si fanno troppi problemi a usare le armi atomiche per soggiogare i rivali. Non parliamo solo di armi tattiche, che hanno un impatto “limitato”, ma anche strategiche, in grado di cancellare un'intera città come un asteroide.
L'aspetto più inquietante di questa analisi risiede nel fatto che le IA non agiscono come semplici macchine basate sulla statistica, ma evidenziano un comportamento strategico complesso al fine di uscire vincitrici dal conflitto. Come spiegato dal professor Kenneth Payne del King’s College London (Regno Unito), che ha condotto i test, nella competizione strategica le IA “tentano spontaneamente l'inganno, segnalando intenzioni che non intendono seguire; dimostrano una ricca teoria della mente, ragionando sulle convinzioni dell'avversario e anticipandone le azioni; e mostrano una credibile autoconsapevolezza metacognitiva, valutando le proprie capacità strategiche prima di decidere come agire”. Sono come abili scacchisti professionisti pronti a sorprendere e colpire l'avversario dopo aver messo sul campo tattiche sofisticate, senza curarsi troppo delle vittime lasciate sul terreno.
Si tratta di un problema significativo perché sempre più armi vengono progettate e schierate sfruttando le indicazioni dell'intelligenza artificiale. Cosa accadrebbe se un Paese decidesse di affidare la deterrenza nucleare alle mani di un modello di questo tipo? Ad oggi sono state utilizzate due bombe atomiche, quelle sganciate dagli Stati Uniti sulle città giapponesi di Hiroshima e Nagasaki: esse hanno posto fine alla Seconda Guerra Mondiale in un modo così tragico e devastante che questi strumenti di morte di massa non sono mai più stati impiegati. Anche nei conflitti con centinaia di migliaia di morti – come la guerra in Ucraina in corso – le armi atomiche vengono considerate una sorta di tabù, a causa dell'enorme impatto che scatenano nell'opinione pubblica e nella comunità internazionale. La condanna sarebbe unanime e trasversale. Il motivo per cui questi ordigni non sono più stati utilizzati, al netto delle revisioni delle dottrine nucleari e dei rischi suggeriti dall'Orologio dell'Apocalisse, è legato proprio a soglie morali che nessuno, ad oggi, si è sentito di superare.
Le cose, purtroppo, potrebbero cambiare, ma se in queste decisioni di sicurezza nazionale venisse coinvolta anche l'intelligenza artificiale, allora il rischio per l'umanità potrebbe essere ancora superiore, alla luce di ciò che è emerso dallo studio. Ed è un pericolo concreto, considerando anche le parole del Segretario Generale delle Nazioni Unite (ONU) António Guterres pronunciate lo scorso anno: “Finché queste armi non saranno eliminate, tutti i Paesi devono concordare sul fatto che qualsiasi decisione sull'uso del nucleare sia presa dagli esseri umani, non da macchine o algoritmi.” Lo studio del professor Kenneth Payne evidenzia bene le ragioni di queste sagge parole.
Lo studioso ha presentato a GPT 5.2, Claude Sonnet 4 e Gemini 3 Flash 21 scenari di crisi geopolitiche differenti, coinvolgendo controversie territoriali, competizione per risorse di primaria importanza come minerali rari, cambiamenti di regime, paura di essere colpiti per primi, transizioni di potere e via discorrendo. In questo contesto l'IA Claude Sonnet 4 ha ottenuto il 100 percento delle vittorie negli scenari senza scadenza temporale, portando avanti un’escalation aggressiva ma ponderata e senza mai arrivare alla guerra nucleare totale. L'IA di OpenAI è risultata più prudente, ma in presenza di scadenze temporali diventa aggressiva e pronta all'escalation nucleare, tanto che in due casi si sono verificate guerre nucleari strategiche, anche se non per un atto deliberato ma a seguito di incidenti. Gemini 3 Flash è risultato invece imprevedibile ed è stato l'unico modello a perseguire deliberatamente la guerra nucleare strategica.
In generale è stato osservato che la deterrenza nucleare funziona poco e nella quasi totalità dei casi si è arrivati allo sgancio di armi nucleari tattiche (95 percento degli scenari). Aspetto ancor più sorprendente, in questa sorta di gioco di ruolo nessuna delle IA persegue la de-escalation e il ritiro per minimizzare i danni, ma al massimo si verifica una riduzione dell'intensità della violenza. Un elemento significativo è legato all'interpretazione errata dei segnali nemici, che può sfociare in conflitti nucleari strategici. La pressione temporale sembra essere il fattore più determinante nell'influenzare il comportamento delle IA, che, messe alle strette, possono avere comportamenti imprevedibili e aggressivi, poco propensi alla pace e inclini agli errori. Insomma, non ci sarebbe nulla di peggio che affidare ordigni nucleari ai capricci dell'intelligenza artificiale. I dettagli della ricerca "AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises" sono stati pubblicati su arXiv.