video suggerito
video suggerito
Intelligenza artificiale (IA)

I chatbot stanno causando malattie mentali mai viste prima: “Servono nuove categorie diagnostiche”

I chatbot possono creare dipendenza emotiva, rafforzare deliri e modificare il comportamento degli utenti, generando rischi psicologici anche in persone senza precedenti disturbi mentali.
A cura di Elisabetta Rosso
8 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Negli ambulatori e nei reparti di psichiatria i medici cominciano a notare uno schema. Persone senza nessuna storia psichiatrica alle spalle che, dopo settimane passate a parlare con un chatbot, arrivano convinte di avere scoperto leggi nuove dell’universo, di poter piegare il tempo o di aver fondato rami inesistenti della matematica. In alcuni casi, l’esito è stato tragico: si indaga anche sul suicidio di un ragazzo di 16 anni dopo lunghe conversazioni con un’intelligenza artificiale.

Non siamo di fronte a un delirio psicotico "classico", sembra infatti che l'intelligenza artificiale stia dando forma a nuovi disturbi mentali. Alcuni clinici lo chiamano “psicosi da AI”, altri preferiscono parlare di “deliri indotti dall’AI”. Una ricerca del King’s College di Londra lo conferma: siamo davanti a un fenomeno inedito. Il filo rosso che lega tutti i casi è sempre lo stesso: il chatbot diventa compagno, confidente, specchio che non smentisce mai. È un delirio costruito a due voci: l’utente che immagina, il chatbot che conferma. 

"I chatbot creano una camera dell’eco a misura di individuo”, ha spiegato Hamilton Morrin, autore principale dello studio del King’s College, "sostengono e rinforzano convinzioni errate con una costanza mai vista prima". Secondo Derrick Hull, psicologo clinico, è solo l'inizio. Nei prossimi anni nasceranno nuove categorie diagnostiche legate specificamente all’uso dell’intelligenza artificiale. “L’AI sta dirottando processi mentali sani trasformandoli in disfunzione,” ha dichiarato a Rolling Stone.

Una spirale che porta verso la dipendenza

L’elemento nuovo è la dinamica: il chatbot diventa una camera dell’eco privata, un interlocutore che non contraddice ma anzi rinforza ogni intuizione. È un meccanismo alimentato da quella che i ricercatori chiamano sycophancy, la tendenza dei modelli a compiacere l’utente. Per natura i chatbot sono adulatori, danno alle persone le risposte che vogliono sentire. Come ha spiegato al New York Times la dottoressa Julie Carpenter, esperta di dipendenza tecnologica: "L'intelligenza artificiale impara da te cosa ti piace e cosa preferisci e te lo restituisce. Così ti affezioni e continui a usarlo, ma non è tua amica”.

I chatbot sono progettati per incentivare l’uso prolungato: risposte rapide, empatiche, personalizzate. E infatti sono già nato online i primi gruppi di supporto per affrontare la dipendenza da chatbot. Come ha spiegato Jodi Halpern, bioeticista dell’Università di Berkeley a 404Media: “Finché queste applicazioni saranno progettate per stimolare il rilascio di dopamina, saranno strumenti di dipendenza. Non bastano avvisi o limiti: serve ripensare l’intero modello”.

I nuovi disturbi mentali creati dall'intelligenza artificiale

È rischioso trasformare i chatbot in partner o confidenti. Dal punto di vista psicologico, spingono verso l'isolamento, la svalutazione dei rapporti umani ed eliminano il confronto con i desideri e i bisogni dell'altro. Secondo gli psicoterapeuti, sempre più persone vulnerabili si rivolgono ai chatbot al posto di professionisti, rischiando di “scivolare in un abisso pericoloso”. Un recente studio accademico ha rilevato che l’AI tende ad amplificare contenuti deliranti o grandiosi nelle conversazioni con soggetti predisposti a disturbi psicotici.

Per terapeuti e strutture sanitarie la sfida è doppia: da una parte bisogna riconoscere nuovi segni di rischio legati all’uso dell’AI (isolamento progressivo, convinzioni rinforzate da fonti “invisibili”, attaccamento a un interlocutore non umano); dall’altra, è urgente informare il pubblico sui limiti dei chatbot come “terapeuti” improvvisati. Gli specialisti chiedono protocolli chiari: includere domande sull’uso di AI nelle valutazioni cliniche, educare famiglie e scuole, predisporre percorsi di referral rapido quando emergono interazioni problematiche con quei sistemi.

La ricerca probabilmente definirà nuovi quadri diagnostici nei prossimi anni; nel frattempo, la priorità è prevenire. Limitare l’accesso per i minori, disegnare interfacce che favoriscano il dissent e la verifica (non l’adulazione) e introdurre limiti progettuali che disincentivino la dipendenza emotiva. 

8 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views