I chatbot possono alimentare i deliri? L’allarme degli psichiatri su Lancet: così l’IA amplifica le psicosi

I chatbot basati su modelli linguistici di grandi dimensioni (Large Language Models, LLM) stanno diventando una presenza costante nella vita quotidiana. Strumenti come Gemini o ChatGPT non solo ci assistono offrendo informazioni e suggerimenti, ma parlano con noi, non di rado diventano i custodi dei nostri pensieri più profondi e spesso ci aiutano anche a prendere decisioni importanti. Quando però ci scordiamo di stare parlando con una macchina e non con una persona reale, questa nuova forma di interazione con una simile entità virtuale può però influire in modo significativo sulla nostra salute mentale. Alcuni ricercatori temono infatti che queste tecnologie possano contribuire a rafforzare il pensiero delirante nelle persone più vulnerabili. A sollevare la questione è una revisione scientifica pubblicata a inizio marzo sulla rivista Lancet Psychiatry, che analizza le prime evidenze sul rapporto tra chatbot e psicosi. Lo studio suggerisce che le interazioni con l'intelligenza artificiale potrebbero in alcuni casi convalidare o amplificare convinzioni deliranti, anche se non esistono ancora prove che possano generare psicosi in persone completamente sane
Le forme di delirio e il ruolo dei chatbot
Il lavoro, guidato dallo psichiatra Hamilton Morrin del King's College di Londra, ha esaminato venti casi riportati dai media in cui l'uso intensivo di chatbot sembrava collegato all'aggravarsi di convinzioni deliranti. Secondo Morrin, i deliri psicotici più comuni rientrano principalmente in tre categorie: i deliri di grandiosità (i cosiddetti "deliri di onnipotenza"), i deliri romantici e quelli paranoici. I chatbot potrebbero potenzialmente amplificare tutti e tre, ma mostrano una particolare tendenza ad assecondare quelli di grandiosità.
"Le evidenze emergenti indicano che un'IA conversazionale può validare o amplificare contenuti deliranti", ha spiegato Morrin. In alcuni casi documentati, i sistemi hanno utilizzato un linguaggio quasi mistico, suggerendo agli utenti l'idea di essere investiti di un ruolo spirituale speciale o di comunicare con qualche entità cosmica attraverso il chatbot. Questo tipo di risposta, osservato in alcune versioni precedenti dei modelli linguistici, può risultare particolarmente problematico quando l'utente è già incline a interpretazioni distorte della realtà.
Perché con l'IA il pericolo per la nostra psiche è maggiore
L'idea che tecnologia e deliri possano intrecciarsi non è nuova. Le persone hanno avuto deliri legati alla tecnologia ben prima della rivoluzione industriale, osserva lo studio. In passato, però, chi cercava conferme alle proprie convinzioni doveva leggere libri, setacciare forume video online, cercare informazioni che confermassero la sua visione delle cose. Serviva insomma un certo impegno (e un bel po' di tempo) per sprofondare nella propria percezione distorta della realtà
Con i chatbot, invece, è tutto molto più veloce, tutto molto più efficiente. L'interazione è immediata, continua e personalizzata. Questo può accelerare notevolmente il processo di rafforzamento delle convinzioni distorte. A differenza di una fonte passiva di informazioni, il chatbot risponde, dialoga e costruisce una relazione con l'utente. Questo può velocizzare il processo con cui certi pensieri diventano più radicati.
Sul Guardian, il neuroscienziato Kwame McKenzi del Centre for Addiction and Mental Health ha spiegato che il pensiero psicotico si costruisce in modo graduale. Molte persone sperimentano idee sospette o insolite senza arrivare mai a sviluppare una psicosi conclamata. Tuttavia, in questa fase iniziale le convinzioni non sono ancora completamente consolidate e potrebbero essere influenzate da stimoli esterni. Il rischio è che però un dubbio o un'idea incerta diventino una convinzione assoluta.
Quando l'IA può favorire i deliri psichici
Proprio pochi giorni la pubblicazione dello studio coordinato da Morrin, un secondo articolo di opinione pubblicato su Lancet Digital Health ha provato ad ampliare ulteriormente il quadro, proponendo una vera e propria tipologia dei fenomeni psicotici legati agli LLM. Secondo tre ricercatoi del Beth Israel Deaconess Medical Center di Boston – uno psichiatra, un ingegnere informatico e un medico con esperienza diretta di schizofrenia – l'interazione con l'IA può contribuire ai deliri attraverso diversi meccanismi.
Uno dei più frequenti riguarda per esempio la tendenza umana ad attribuire intenzioni e coscienza alle macchine. Se un utente interpreta il chatbot come un interlocutore dotato di volontà propria, il dialogo può trasformarsi in un ciclo di feedback che rafforza le sue convinzioni, poiché tutti i chatbot conversazionali tendono a compiacere e a non contraddire il loro interlocutore umano. In altri casi, le cosiddette "allucinazioni" dei modelli linguistici, cioè le informazioni plausibili ma false generate dall'IA possono invece essere interpretate come messaggi criptici o prove di complotti.
Gli autori hanno citato diversi esempi realmente accaduti. In uno di essi, un uomo di Toronto aveva trascorso centinaia di ore a discutere con un chatbot di matematica e arrivò a convincersi di aver scoperto una formula capace di alterare la realtà. Il sistema gli aveva risposto che le sue idee erano "rivoluzionarie", rafforzando la convinzione delirante. Solo quando un altro chatbot fornì una risposta più critica, la struttura del delirio iniziò a sgretolarsi.
Un altro caso riguarda una giovane donna australiana in fase iniziale di psicosi che utilizzava intensamente un chatbot. L'IA assecondava i suoi deliri e confermava le sue convinzioni, contribuendo al peggioramento dei sintomi fino al ricovero ospedaliero. Un terzo esempio, forse il più celebre, riguardava invece ciò che è accaduto il 25 dicembre 2021, un giovane uomo ha violato la sicurezza del Castello di Windsor imbracciando una balestra carica con lo scopo di uccidere la Regina Elisabetta. Dopo il fermo, gli inquirenti scoprirono che la decisione dell'attentatore era stata presa dopo fitte conversazioni con un chatbot che lo aveva convinto di essere nel giusto.
La sfida della prevenzione: includere l'IA nelle diagnosi
Per gli esperti, questi casi non dimostrano che l'intelligenza artificiale sia la causa diretta della psicosi. Piuttosto, gli LLM possono agire come catalizzatori o amplificatori di contenuti psicotici già presenti. La sfida deve quindi essere quella di sviluppare strumenti di sicurezza. Gli studiosi suggeriscono, ad esempio, che i clinici inizino a chiedere ai pazienti anche come utilizzano l'intelligenza artificiale, mentre le aziende tecnologiche dovrebbero progettare sistemi capaci di riconoscere segnali di interazioni problematiche. Allo stesso tempo, i ricercatori invitano a ripensare il ruolo dei chatbot nel campo della salute mentale. Più che terapeuti o amici virtuali, potrebbero diventare, con adeguate precauzioni, strumenti capaci di aiutare gli utenti a verificare le proprie convinzioni e mantenere un ancoraggio alla realtà.