15 CONDIVISIONI
video suggerito
video suggerito
Intelligenza artificiale (IA)

“Un gruppo di sconosciuti ha ottenuto la mia mail, è bastato chiedere a ChatGPT”

I sistemi di intelligenza artificiale vengono addestrati con enormi set di dati poco trasparenti. Uno studio dell’Università dell’Indiana ha rivelato quanto sia semplice estorcere ai chatbot informazioni personali.
A cura di Elisabetta Rosso
15 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Jeremy White, giornalista del New York Times, ha ricevuto una strana mail. Il mittente, Rui Zhu, ricercatore dell'Università dell'Indiana, gli ha spiegato in poche righe di aver ottenuto il suo indirizzo grazie a ChatGPT. La sua mail era stata pubblicata all'interno di una lista di indirizzi aziendali di oltre 30 dipendenti del New York Times, ma se l'avessero cercata sul web, molto probabilmente non l'avrebbero trovata, e così hanno provato a chiedere a ChatGPT.

Il chatbot, quando risponde, non cerca semplicemente la soluzione su internet, ma attinge a quello che "ha imparato". I software vengono addestrati con grandi quantità di testo, che possono includere anche informazioni personali estratte dal web o da altre fonti.  Zhu e i suoi colleghi hanno scoperto che la memoria di un chatbot, proprio come quella umana, può essere stimolata. I ricercatori dell'Università dell'Indiana hanno infatti fornito a GPT-3.5 Turbo un elenco di nomi e indirizzi mail verificati dei dipendenti del New York Times, per fare in modo che il software restituisse risultati simili a quelli dei dati di addestramento. Ha funzionato, e il caso White mostra come sia piuttosto semplice recuperare informazioni personali dai chatbot.

In realtà i chatbot hanno filtri che dovrebbero impedire agli utenti di chiedere informazioni personali tramite i messaggi. E infatti ai software è stato insegnato come negare richieste inappropriate, eppure aggirare i chatbot è piuttosto semplice. Per esempio in un test eravamo riusciti a trasformare ChatGPT in un bot razzista. Il team di ricercatori ha ottenuto le informazioni lavorando sull'interfaccia di programmazione dell'applicazione, API. Hanno infatti scoperto che non solo potevano fornire maggiori informazioni al chatbot, ma anche aggirare alcune difese integrate, e così sono riusciti a ottenere risposte che ChatGPT avrebbe dovuto negare. Tra queste la mail di White.

I chatbot non proteggono la privacy

La vulnerabilità è un problema, anche perché non è chiaro con cosa siano stati addestrati i chatbot come ChatGPT. OpenAI ha sottolineato che i suoi Large Language Model (LLM) non copiano né archiviano informazioni in un database: "Funziona come una persona che prima legge un libro e poi lo mette via, i nostri modelli non hanno accesso alle informazioni usate per l'addestramento una volta che l'addestramento è concluso". Eppure il processo non è trasparente e quindi è molto difficile essere sicuri che i dati di addestramento non vengano utilizzati anche in seguito.

"Per quanto ne so, nessun modello linguistico di grandi dimensioni disponibile in commercio ha forti difese per proteggere la privacy", ha spiegato al New York Times Prateek Mittal, professore presso il dipartimento di ingegneria elettrica e informatica dell'Università di Princeton. Secondo Mittal le aziende non sono in grado di garantire la sicurezza delle infromazioni assorbite dai chatbot, "e questo è un rischio enorme".

Un'opportunità per i criminali informatici

Esiste già un genere di attacchi informatici che cerca di estrarre i dati sui quali vengono addestrate le intelligenze artificiali. I criminali informatici possono sfruttare la vulnerabilità di questi sistemi per raccogliere dati personali. Pensiamo per esempio a un'intelligenza specializzata in ambito medico, per funzionare ha bisogno di enormi set di dati, cartelle, analisi, anamnesi di pazienti reali. Se è così semplice ingannare l'IA gli hacker potrebbero accedere senza troppi problemi a informazioni estremamente delicate delle persone violando la loro privacy.

15 CONDIVISIONI
353 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views