“I palestinesi fanno da cavie”: così Israele sperimenta le armi con intelligenza artificiale a Gaza

Non solo il teatro di un genocidio in mondovisione; la Striscia di Gaza è diventata anche una formidabile "vetrina" in cui l'esercito israeliano mette in mostra quotidianamente i suoi più innovativi sistemi d'arma. Tra questi, vi sono anche quelli che fanno ricorso all'intelligenza artificiale per identificare e colpire obiettivi, con un grado di automazione che mette in discussione il ruolo stesso dell’essere umano nelle decisioni di vita o di morte. Programmi come Lavender e Where’s Daddy? – largamente impiegati dall'IDF in questi due anni – non si limitano infatti a fornire informazioni: elaborano punteggi, suggeriscono bersagli, calcolano tempi d’attacco. Dietro la promessa di una maggiore efficienza militare si cela però un rischio epocale: un'ulteriore disumanizzazione della guerra.
Ne parla in un'intervista a Fanpage.it Nicole van Rooijen, nuova direttrice esecutiva di Stop Killer Robots, la coalizione globale che riunisce 270 organizzazioni impegnate per vietare preventivamente le armi autonome letali. Sulla spinta di questa coalizione lo scorso 6 novembre la Prima Commissione dell’Assemblea Generale delle Nazioni Unite (UNGA) ha adottato una risoluzione sui sistemi d’arma autonomi, esprimendo preoccupazione per "le conseguenze e l’impatto dei sistemi d’arma autonomi sulla pace e la sicurezza internazionali, incluso il rischio di una nuova corsa agli armamenti, l’aggravarsi dei conflitti e delle crisi umanitarie", ravvedendo un pericolo per gli "errori di calcolo, l’abbassamento della soglia di conflittualità e l’escalation dei conflitti", nonché per la proliferazione di tali armi "anche verso destinatari non autorizzati e attori non statali". Il risultato della votazione sulla Risoluzione è stato di 156 Stati a favore, 5 contrari e 8 astensioni. Tra i contrari, Israele, USA e Russia.
Secondo Nicole van Rooijen, Gaza rappresenta un punto di non ritorno: un banco di prova tecnologico e politico che mostra la distanza crescente tra l’innovazione bellica e il diritto internazionale, tra l’algoritmo e la coscienza umana. Con i civili palestinesi ridotti a vere e proprie cavie.
Come definirebbe i sistemi d’arma basati su intelligenza artificiale impiegati a Gaza? A quali scopi sono state usate tali armi e dove si colloca l’essere umano nella catena di comando?
I sistemi di intelligenza artificiale impiegati a Gaza sono comunemente definiti sistemi di supporto decisionale. Questi sistemi analizzano grandi quantità di dati e individuano obiettivi, fornendo raccomandazioni per le decisioni di attacco. In teoria, gli esseri umani rientrano nella catena di comando attraverso la revisione dei profili dei bersagli generati da tali sistemi, decidendo poi se applicare o meno la forza contro il target raccomandato. È in questa fase che gli eserciti sostengono che l’intervento o la supervisione umana servano a prevenire errori nelle decisioni. Tuttavia, come documentato da +972/Local Call e da altre fonti, sappiamo che i soldati delle Forze di Difesa Israeliane (IDF) dedicano solo pochi secondi alla revisione dei bersagli individuati dai sistemi di IA.
Questo, unito al fatto che tali sistemi generano un numero di obiettivi enormemente superiore a quello che qualsiasi essere umano potrebbe elaborare nello stesso tempo, solleva gravi preoccupazioni riguardo alla disumanizzazione intrinseca di questi strumenti, al rispetto delle leggi di guerra e, come già visto, ai devastanti danni inflitti ai civili palestinesi, in particolare ai bambini.

Un recente articolo pubblicato su +972 cita i sistemi "Lavender" e "Where’s Daddy?". Di cosa si tratta, nello specifico?
Si tratta di sistemi di supporto decisionale. "Lavender" formula raccomandazioni su quali persone specifiche dovrebbero essere prese di mira, mentre "Where’s Daddy?" utilizza il tracciamento della posizione dei telefoni cellulari per aiutare gli operatori militari israeliani a determinare il momento più opportuno per un attacco. Entrambi elaborano enormi quantità di dati raccolti da Israele sui palestinesi: dai social media, alle chat telefoniche, ai filmati delle telecamere di sorveglianza, ai cambi di numero o di indirizzo. Il sistema Lavender assegna quindi un punteggio numerico a ciascun residente in base a questi dati; se il punteggio supera una determinata soglia – stabilita, secondo quanto riportato, da ufficiali militari israeliani – il sistema segna automaticamente quella persona come obiettivo da colpire.
Sebbene questi sistemi di supporto decisionale siano già di per sé estremamente problematici, riflettono anche la dottrina militare che ne guida l’uso. Le gravi violazioni del diritto internazionale umanitario commesse dalle IDF sono ampiamente documentate dall’ottobre 2023. Ridurre le persone a semplici dati significa disumanizzarle, e questo rende più facile prenderle di mira e ucciderle.
In questo senso possiamo considerare Gaza anche una "vetrina" tecnologica? Ritiene che altri Paesi o industrie stiano osservando questi sistemi per esportarli o importarli?
Gaza non è soltanto una vetrina tecnologica: è la manifestazione di decenni di disumanizzazione, che hanno portato a un genocidio contro il popolo palestinese. Se Gaza dovesse diventare la nuova norma nel modo in cui si conducono le guerre – cioè con totale disprezzo per il diritto internazionale – allora l’intera umanità è in pericolo.
I Paesi interessati all’importazione di sistemi avanzati come Lavender o Gospel possono essere attratti dalla promessa di elaborare quantità di dati enormi in tempi rapidissimi. Tuttavia, dietro il fascino di questo marketing si nasconde una dura realtà: i modelli di intelligenza artificiale, inclusi quelli linguistici, sono ancora pericolosamente immaturi e opachi per applicazioni militari. Le prove sono evidenti – da Gaza allo Yemen, dall’Iraq alla Siria e all’Ucraina – dove l’uso di queste tecnologie ha già causato pesantissime perdite civili e la distruzione di infrastrutture essenziali per la sopravvivenza della popolazione. Gli algoritmi non possono formulare valutazioni morali o legali in contesti complessi e instabili; non possono pesare il valore di una vita umana o le conseguenze di un attacco. Per questo la Campagna Stop Killer Robots chiede con urgenza una regolamentazione internazionale sullo sviluppo e sull’uso di tali armi basate su IA, per garantire che la responsabilità delle decisioni di attacco resti umana.

È corretto dire che i palestinesi sono stati usati come "cavie" per test operativi di questi sistemi d'arma basati sull'intelligenza artificiale?
Il popolo di Gaza ha subito cinque guerre negli ultimi vent’anni, oltre a un blocco imposto da Israele dal 2007, a quasi 80 anni di occupazione e alla Nakba del 1948. A differenza di altri conflitti, gli abitanti di Gaza non hanno vie di fuga: in ogni guerra non esiste per loro uno spazio sicuro; restano intrappolati.
È documentato che nel tempo una vasta gamma di sistemi d’arma sia stata testata a Gaza – dalle armi incendiarie a quelle basate su IA nel conflitto attuale – con un impatto senza precedenti e devastante su bambini, donne e uomini le cui vite dipendono dalle decisioni di Israele. Sappiamo anche che Israele utilizza sistemi di sorveglianza altamente invasivi che violano la privacy e la libertà di movimento dei palestinesi a Gaza, a Gerusalemme Est e in Cisgiordania, con gravi ripercussioni sulla vita quotidiana, soprattutto dei minori. Tali sistemi di sorveglianza raccolgono spesso dati senza il consenso o la consapevolezza delle persone, basandosi su enormi banche dati create e aggiornate in modo arbitrario. In sintesi, i palestinesi sono stati e continuano a essere vittime e cavie involontarie della sperimentazione operativa di vari sistemi basati su intelligenza artificiale usati in guerra, nelle forze di polizia e nel controllo delle frontiere.
Veniamo all’Italia: anche il nostro Paese ha o punta ad avere un ruolo rispetto a sistemi d’arma con componenti di IA (sviluppo, integrazione, export, ricerca)?
Con l’instabilità globale crescente e lo sviluppo rapido di strumenti basati su IA in ogni ambito della vita, molti Paesi sono interessati al loro impiego. Tuttavia, alcuni Stati – tra cui l’Italia – hanno chiarito che lo sviluppo e l’uso delle tecnologie di intelligenza artificiale non devono procedere senza un’adeguata regolamentazione.
In tal senso, su cosa dovrebbe intervenire il Parlamento italiano?
Il Parlamento italiano dovrebbe valorizzare la propria posizione diplomatica attuale sugli armamenti autonomi, sostenendo che è urgentemente necessario un trattato internazionale. I parlamentari dovrebbero sensibilizzare i cittadini su questo tema e dimostrare di prendere posizione contro l’uccisione automatizzata e la disumanizzazione digitale, ad esempio firmando il nostro Impegno Parlamentare. Dovrebbero inoltre sostenere e collaborare con le ONG italiane – come Archivio Disarmo e Rete Italiana Pace e Disarmo, membri della nostra coalizione – che si occupano attivamente di questa tematica.

Che cosa sta facendo la Campagna Stop Killer Robots a livello internazionale per regolamentare o proibire armi basate su IA? A che punto è il percorso verso un trattato all’ONU e quali Stati lo sostengono o lo ostacolano?
Stop Killer Robots, coalizione di 270 organizzazioni della società civile attive in oltre 70 Paesi, lavora a livello nazionale e internazionale per promuovere l’adozione di un nuovo trattato internazionale che proibisca e regolamenti i sistemi d’arma autonomi. Sosteniamo inoltre lo sviluppo di norme giuridiche e morali che garantiscano un controllo umano significativo sull’uso della forza, contrastino la disumanizzazione digitale e riducano i danni automatizzati.
Dal 2013 partecipiamo agli incontri delle Nazioni Unite sulle armi autonome per condividere competenze politiche, orientare il dibattito sulle sfide giuridiche, etiche e umanitarie poste da questi sistemi e, in ultima analisi, favorire la loro regolamentazione nel rispetto del diritto internazionale.
Ci troviamo ora in un momento cruciale, in vista della Conferenza di revisione del 2026 della Convenzione su alcune armi convenzionali (CCW), durante la quale gli Stati potrebbero impegnarsi ad avviare negoziati su un trattato vincolante. Gli Stati devono agire subito per dimostrare il loro impegno a proteggere l’umanità, rafforzare il diritto internazionale e ridurre la sofferenza umana.

Quali sono le principali difficoltà negoziali che state incontrando?
La difficoltà principale oggi è spingere gli Stati a passare dalle discussioni ai negoziati veri e propri su uno strumento giuridicamente vincolante – cioè un trattato – per vietare e regolamentare le armi autonome. Nonostante questa sfida, sappiamo che un trattato è possibile: la maggioranza degli Stati – 129 Paesi – sostiene la creazione di un accordo internazionale. Sia il Segretario Generale dell’ONU che il Presidente del Comitato Internazionale della Croce Rossa hanno esortato gli Stati a concludere i negoziati entro il 2026. Inoltre, 42 Stati che partecipano ai lavori delle Nazioni Unite a Ginevra sulla CCW hanno recentemente rilasciato una dichiarazione congiunta per esprimere la loro disponibilità ad avviare i negoziati.
Con il divario sempre più ampio tra sviluppo e regolamentazione dell’IA, e alla luce dei danni già dimostrati nei conflitti in corso, gli Stati devono mostrare coraggio politico e agire con urgenza per regolamentare i sistemi d’arma autonomi e l’uso dell’intelligenza artificiale in ambito militare.