65 CONDIVISIONI
video suggerito
video suggerito
Intelligenza artificiale (IA)

Ora anche l’esercito può usare ChatGPT e questo è un problema enorme

OpenAI senza una dichiarazione ufficiale ha cambiato le sue politiche e ha eliminato il divieto di utilizzare il suo chatbot per scopi militari. In caso di guerra ChatGPT però potrebbe diventare uno strumento letale, anche per i civili.
A cura di Elisabetta Rosso
65 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

La Storia spesso si è giocata sul campo della semantica, e a volte basta cambiare o togliere qualche parola. Fino al 10 gennaio sulla pagina “politiche di utilizzo” di OpenAI si leggeva "è vietato usare ChatGPT per attività che presentano un alto rischio di danni fisici, tra cui”, in particolare, lo “sviluppo di armi” e l'utilizzo “militare e bellico”. Ora al suo posto è apparsa una formula leggermente diversa, rimane come esempio "sviluppare o utilizzare armi", sparisce invece "l'uso militare e bellico". Una modifica che potrebbe aprire una nuova opportunità di business per OpenAI (nonostante il portavoce abbia detto che hanno deciso di cambiare la policy per renderla "più leggibile").

Non è un caso che l'azienda abbia collaborato negli ultimi mesi con il DARPA, la sezione del Dipartimento della Difesa degli Stati Uniti impegnata nello sviluppo di nuove tecnologie a uso militare per creare “nuovi strumenti di sicurezza informatica” al fine di proteggere i software open source da cui dipendono le infrastrutture critiche. Non solo. "Dato l'uso dei sistemi di intelligenza artificiale nel prendere di mira i civili a Gaza, è un momento importante prendere la decisione di rimuovere le parole ‘militare e guerra' dalla politica di utilizzo consentito di OpenAI", ha spiegato Sarah Myers West, amministratrice delegata di AI Now Institute ed ex analista delle politiche sull'intelligenza artificiale presso la Federal Trade Commission.

“Il linguaggio utilizzato nella politica rimane vago e solleva interrogativi su come OpenAI intende affrontare l’applicazione delle norme”. Secondo la nuova regola i militari non possono utilizzare ChatGPT per sviluppare armi, ferire, distruggere o violare le norme di sicurezza. In tal caso non rispetterebbero la policy universale di non danneggiare gli altri. È vero, l'intelligenza artificiale potrebbe velocizzare le pratiche burocratiche dell'esercito, ma anche manovrare un missile, un drone, o elaborare nuove strategie di attacco.

La risposta di Open AI

"Abbiamo cercato di creare una serie di principi universali che siano facili da ricordare e da applicare, soprattutto perché i nostri strumenti sono ora utilizzati a livello globale dagli utenti di tutti i giorni che ora possono anche creare chatbot personalizzati", ha detto il portavoce di OpenAI Niko Felix in una mail alla testata The Intercept, che ha notato il cambiamento della policy avvenuto senza una dichiarazione ufficiale.

“Un principio come ‘Non danneggiare gli altri' è ampio ma facilmente comprensibile e rilevante in numerosi contesti. Inoltre, abbiamo citato specificamente le armi e le lesioni ad altri come chiari esempi”. L’anno scorso OpenAI aveva dichiarato che non avrebbe modificato le sue policy nonostante le pressioni del Pentagono e dell’intelligence statunitense.

ChatGPT per scopi militari: quali sono i rischi

Heidy Khlaaf, direttrice tecnica presso la società di sicurezza informatica Trail of Bits, ed esperta di apprendimento automatico e sicurezza dei sistemi autonomi, ha spiegato a the Intercept: "OpenAI è ben consapevole dei rischi e dei danni che possono derivare dall'uso della propria tecnologia e dei propri servizi in applicazioni militari". Non solo, mentre la prima politica di utilizzo generale vietata esplicitamente la possibilità di utilizzare ChatGPT per scopi militari, la seconda amplia e quindi confonde i limiti.

“Lo sviluppo di armi e lo svolgimento di attività legate all’esercito e alla guerra sono legali in vari modi. Le potenziali implicazioni per la sicurezza dell’IA sono significative. Considerati i ben noti casi di pregiudizi e allucinazioni presenti nei Large Language Models (LLM) e la loro generale mancanza di accuratezza, il loro utilizzo nella guerra militare può solo portare a operazioni imprecise e distorte che potrebbero esacerbare i danni e le vittime civili."

65 CONDIVISIONI
361 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views