video suggerito
video suggerito
Intelligenza artificiale (IA)

“Nessuno mi capisce come ChatGPT”: lo psicologo spiega perché l’empatia dei chatbot è un inganno

Sempre più persone usano ChatGPT e altri chatbot per confidarsi, anche nei momenti più difficili. Alcuni pensano che possono perfino sostituirsi a uno psicoterapeuta in carne e ossa. Lo psicologo Giuseppe Lavenia spiega perché l’empatia che sembrano avere le loro risposte non è altro che un’illusione.
Intervista a Giuseppe Lavenia
Psicologo e psicoterapeuta
29 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Basta farsi un giro su Reddit, la piattaforma web che riunisce forum tematici e discussioni di ogni tipo, per avere un'idea di quello che ChatGPT sta diventando per molte persone. Non solo un assistente sul lavoro, ma anche un confidente emotivo, un amico, per alcuni perfino terapeuta. O, almeno, così è come lo vede chi lo utilizza. "Quando mi sento solo parlo con ChatGPT. È molto gentile con me", scrive un utente di Reddit, un altro gli risponde "Lo so, è ridicolo, ma ChatGPT dice cose più sensate di quanto facciano la maggior parte delle persone".

C'è chi scrive a ChatGPT, o ad altri chatbot, perché ha avuto una discussione con il partner o un amico, c'è chi lo fa perché ha avuto una giornata difficile a lavoro e chi semplicemente perché si sente solo. Il tema è diventato argomento di discussione anche tra gli esperti della salute mentale, che si sono chiesti se e quale può essere il ruolo dei chatbot che offrono supporto psicologico. Una risposta chiara ancora non c'è, ma molti studi suggeriscono che sebbene queste app possano avere dei benefici nel limitare sintomi depressivi e ansiosi, si tratta per lo più di effetti temporanei destinati a non essere risolutivi. A Fanpage.it ne abbiamo parlato con Giuseppe Lavenia, psicologo e psicoterapeuta, presidente dell'Associazione nazionale Di.Te. (Dipendenze Tecnologiche, GAP e Cyberbullismo).

Perché i chatbot sembrano davvero empatici

Il punto è che ChatGPT e gli altri chatbot funzionano grazie a modelli linguistici di grandi dimensioni (LLM) che imparano continuamente dai prompt ricevuti, oltre ovviamente dall'addestramento che hanno ricevuto in fase di creazione. Questo significa che riescono a sembrare molto empatici e reattivi, proprio perché formulano le loro risposte in base alle nostre stesse parole. A un utente su Reddit che raccontava di come si sentiva compreso da ChatGPT un altro risponde: "Quindi, la prossima volta che vedrai un canarino che guarda in suo riflesso in uno specchio, pensando che sia un compagno, saprai come si sente". La metafora sembra crudele, ma rende bene l'idea.

Lavenia, che da tempo si occupa degli effetti psicologici delle tecnologie, soprattutto negli adolescenti, lo spiega così: "Siamo davanti a una nuova forma di vicinanza emotiva, apparente ma non reale. L’illusione perfetta della relazione. I chatbot ci ascoltano, ci rispondono, imparano dai nostri comportamenti, modulano il tono. Ma tutto questo non è empatia. È programmazione. È predizione linguistica. Non è esperienza umana".

Il paradosso dei chatbot

Come scrive su The Conversation Pooja Shree Chettiar, ricercatrice in Neuroscienze della Texas A&M University, i chatbot, soprattutto quelli nati per offrire un sostegno psicologico – alcune di queste affermano di utilizzare perfino alcune tecniche di psicoterapia come la terapia cognitivo comportamentale – possono avere apparentemente una funzione positiva. Eppure da sole non possono sostituirsi al lavoro degli psicoterapeuti in carne e ossa, anche perché secondo la neuroscienza sarebbe la stessa relazione umana ad attivare "reti cerebrali che nessuna IA può raggiungere".

"Come psicologo – prosegue Lavenia – vedo nei chatbot un paradosso: possono attivare la parola, aprire una breccia nel silenzio, ma non possono contenere davvero la sofferenza. Possono offrire sollievo immediato, ma non danno strumenti per affrontare la complessità del dolore. E se l’interlocutore non è in grado di cogliere il sottotesto emotivo, il rischio non è solo di non essere aiutati, ma di essere fraintesi". Secondo l'esperto quindi nessuna IA può davvero essere empatica, nel senso reale del termine, né tanto meno sostituirsi a un terapeuta: "L’alleanza terapeutica, quella vera, nasce da due esseri umani imperfetti che si incontrano nella fatica, nella vergogna, nel dubbio. E lì costruiscono qualcosa che nessun algoritmo può replicare: la fiducia".

Quali sono i rischi nascosti

Purtroppo i rischi di questa finta relazione li abbiamo già visti. A fine ottobre 2024 un quattordicenne di Orlando, Florida, l'ultima cosa che ha fatto prima di suicidarsi è stato scrivere un messaggio al chatbot personalizzato che usava da tempo: "Mi manchi". Sempre nel 2024 una coppia di genitori negli Stati Uniti ha denunciato Character.AI, una piattaforma in cui si può chattare con milioni di chatbot, perché convinti che i loro figli, entrambi minorenni, siano stati spinti a farsi male e fare male a loro proprio dai chatbot con cui si confidavano sui litigi familiari.

"Il pericolo più grande è la sostituzione – aggiunge Lavenia – non l’integrazione. Se un adolescente preferisce confidarsi con un’intelligenza artificiale piuttosto che con un adulto, il problema non è il chatbot: è il vuoto relazionale che lo circonda. È la mancanza di adulti capaci di stare, ascoltare, contenere, anche senza risposte pronte. L’IA può essere un ponte. Ma il ponte non è la destinazione".

29 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views