La filosofa di Oxford Taddeo sui rischi dell’IA in guerra: “Uccide e nessuno se ne prende la responsabilità”

Mariarosaria Taddeo, professoressa di Etica digitale e Tecnologie per la difesa a Oxford, nell’ultima puntata di Scanner Live ha parlato dei rischi dell’uso dell’IA in guerra. Oggi, di fatto, non ci sono regole e limiti sull’utilizzo che se ne può fare. Il rischio è di “delegare la responsabilità personale” delle uccisioni: è il confine “tra la guerra e l’atrocità”.
Intervista a Mariarosaria Taddeo
Professoressa di Etica digitale e Tecnologie per la difesa all'Internet Institute dell'Università di Oxford
A cura di Luca Pons
0 CONDIVISIONI
Fonte: Oxford Internet Institute, University of Oxford
Fonte: Oxford Internet Institute, University of Oxford

Il futuro della guerra è sempre più concentrato sull'intelligenza artificiale. Dagli Stati Uniti alla Cina, le grandi potenze guardano all'IA per rendere più potenti, precise e rapide le iniziative militari. Ma è un mondo in cui si procede senza regole e senza limiti etici, al momento. La filosofa Mariarosaria Taddeo, professoressa di Etica digitale e Tecnologie per la difesa all'Internet Institute dell'Università di Oxford, e autrice di "Codice di guerra. Etica dell'intelligenza artificiale nella difesa", ha risposto alle domande di Fanpage.it nell'ultima puntata di Scanner Live, il programma di approfondimento politico condotto da Valerio Nicolosi che va in onda ogni mercoledì alle ore 21.

Quando l'IA decide chi bombardare: "Rischia di diventare un capro espiatorio"

Uno degli esempi recenti più cruenti degli errori che le macchine possono commettere è avvenuto durante l'attacco di Stati Uniti e Israele all'Iran. Stando alle ricostruzioni giornalistiche, un missile statunitense ha colpito la scuola elementare femminile di Minab uccidendo oltre 150 bambine, probabilmente perché in passato l'edificio faceva parte di una base della Marina iraniana. Taddeo ha spiegato che c'è una differenza, quando a commettere uno sbaglio simile è una persona o una macchina.

"C'è anzitutto un aspetto procedurale. Usando l'IA si facilita uno scaricabarile terribile" che è "problematico perché permette di delegare una cosa che non è delegabile, la responsabilità morale e penale, all'intelligenza artificiale". Non possiamo "attribuire alle macchine la responsabilità morale o penale di quello che succede in guerra. Non vorrei che l'intelligenza artificiale diventi il capro espiatorio. Sarebbe molto grave".

La responsabilità "morale e personale in guerra è cruciale per mantenere la distinzione, sottilissima, tra la guerra e l'atrocità. Al processo di Norimberga le prime pagine degli atti si aprono proprio con questa specifica: i giudici dicono ‘Noi non stiamo condannando il Terzo Reich, non stiamo condannando l'esercito, stiamo condannando delle persone perché esiste in guerra una responsabilità personale'. Non vorrei che col digitale riuscissimo a fare quello che non si è riuscito a fare con il nazifascismo".

L'intelligenza artificiale senza regole

Il problema è proprio che oggi non ci sono dei paletti per chiarire a chi va assegnata quella responsabilità, e quando, se si tratta di IA. Siamo arrivati alla situazione attuale dopo un "processo di trasformazione, di digitalizzazione della difesa che parte con la guerra del Golfo nel 1991". La "svolta è stata con la guerra in Ucraina, dove abbiamo visto che l'intelligenza artificiale può supportare tutti i processi della difesa, sia quelli operativi, sia quelli decisionali. Da lì abbiamo iniziato a scoprire il potenziale della difesa a supporto della logistica, dell'intelligence, del cyber, sino a quelle che si chiamano operazioni cinetiche, quindi le armi più o meno autonome, e l'uso delle AI per l'identificazione dei target". Un ampio uso dell'intelligenza artificiale è stato "riportato a Gaza, e poi nei primi giorni della guerra in Iran".

In questo contesto parlare di etica è fondamentale, perché l'etica "cerca di limitare i danni di certi tipi di guerre, quelle che sono giustificate o giustificabili. Le guerre per difesa, la guerra che combatte l'Ucraina, per esempio. È una teoria, quella della guerra giusta, che inizia con Cicerone".

L'adozione dell'intelligenza artificiale da parte della difesa però oggi "è accelerata" e "non si accompagna a una regolamentazione". Quindi c'è "un vuoto talmente ampio che non possiamo neanche dire con la precisione necessaria quali usi siano accettabili o no. Per esempio, i report ci dicono che i sistemi utilizzati sulla Striscia di Gaza avevano una soglia di errore positivo del 10%. Ora, intuitivamente è tanto, ma non c'è una regolamentazione che ci dica se questo sia accettabile o meno, se sia criminale o meno".

I motivi di questo vuoto sono vari. Da una parte quelli politici: "Nessuno ha pensato alla regolamentazione come un elemento cruciale perché sembrava che imbrigliasse le capacità dello Stato". Dall'altra, il dibattito "è stato monopolizzato e polarizzato per un decennio sulle questioni delle armi letali autonome. Alle Nazioni Unite si discute delle armi letali autonome dal 2013, da quando c'è stata una direttiva degli Stati Uniti sull'autonomia in guerra. In questi 13 anni, questo gruppo di esperti governativi non è riuscito a mettersi d'accordo neanche su una definizione ufficiale di arma letale autonoma".

Nel frattempo "abbiamo parlato di armi letali autonome o come di strumenti che avrebbero salvato le vite dei soldati, quindi imprescindibili – qualcuno diceva addirittura ‘renderanno le guerre più corrette perché le armi non stuprano, non torturano'; fantascienza, perché non è questo il punto. Altri dicevano ‘le armi letali autonome sono immorali, perché lede la dignità della vittima delegare la decisione di ucciderla ad una macchina'. È un argomento giustissimo a mio avviso", ma è anche molto "polarizzante". Perciò il dibattito si è chiuso tra posizioni "molto radicali" senza la capacità di trovare "un compromesso".

I passi da seguire

Per fare un passo avanti bisognerebbe iniziare ad applicare i princìpi di etica di guerra che già esistono. "Noi vogliamo che la guerra si combatta quando è inevitabile, seguendo il principio di distinzione, per esempio: i non combattenti non devono essere esposti in intenzionalmente a pericoli legati alla guerra". La seconda urgenza è "una nuova analisi, una nuova interpretazione. Perché questa tecnologia non è solo un'aggiunta alle tecnologie precedenti: trasforma il modo in cui si combatte la guerra". È una tecnologia "che controlliamo poco e male, quindi ci impone di ridefinire sia le soglie di controllo e di rischio, sia lo stesso concetto di di controllo. C'è bisogno di un'analisi concettuale per far sì che quei principi – che rimangono validi – possano essere applicati".

Un esempio: "Esiste un articolo ai protocolli della della Convenzione di Ginevra che ci impone di verificare un'arma prima di porla in uso. Ora, se pensiamo al sistema intelligenza artificiale che apprende ad ogni interazione, quel sistema non è mai uguale a se stesso, perché ogni volta che apprende, tecnicamente, cambia. Quindi per applicare quella norma del diritto internazionale dovremmo applicarlo ogni volta che decidiamo di utilizzare un sistema di intelligenza artificiale. Diventa impossibile, quindi dobbiamo ripensare non lo spirito, ma l'implementazione".

Il manifesto di Palantir e le vere preoccupazioni per l'IA

Il ‘manifesto' di Palantir, con cui la multinazionale ha lanciato alcuni principi politici e che ha sollevato molte discussioni e dibattiti, secondo Taddeo è "una manica di stupidaggini. È un campanello d'allarme perché queste compagnie sono nelle nostre infrastrutture pubbliche – della difesa, ma non solo. In Inghilterra Palantir offre servizi per la sanità, per esempio. Però è veramente una lettura imbarazzante per contenuti e per ambizioni".

Detto questo, non va dimenticato che "la tecnologia non è mai neutrale. Non è vero che sono gli uomini che ammazzano e non le pistole: le pistole sono fatte per ammazzare. Così anche l'intelligenza artificiale. Non è neutrale, però, non necessariamente nella accezione in cui Palantir ci vuole far credere, ma perché molto prima, tutte le scelte di sviluppo, di progettazione, che tipo di dati usiamo o che tipo di di modello utilizziamo, sono tutte scelte che hanno un impatto e una natura etica".

In più, "da quando è diventato evidente che l'intelligenza artificiale sarebbe diventato un asset non tanto per la difesa, ma per l'economia, questo sviluppo si è caricato di elementi geopolitici, politici, etici". E questo è un aspetto importante "perché siccome l'intelligenza artificiale, per diventare un asset economico, si diffonde sulle nostre scrivanie, nelle nostre cucine, nelle nostre tasche, è bene sapere che non stiamo utilizzando uno strumento neutro. Con questa consapevolezza potrebbe aprirsi anche uno spirito critico della dell'opinione pubblica". Opinione pubblica che invece, finora, "si lascia distrarre" da altre uscite eclatanti ed estemporanee che non toccano davvero il punto centrale della questione: "Non è un caso che il manifesto di Palantir sia uscito in questi giorni".

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views