2.088 CONDIVISIONI
Intelligenza artificiale (IA)

La mia prima seduta di psicoterapia con l’intelligenza artificiale è stata disastrosa

Il chatbot che abbiamo provato si chiama Pi, è accondiscendete, gentile, pone domande e spunti di riflessione. Ma l’intelligenza artificiale ha un problema: non sa gestire il silenzio, uno degli elementi chiave della psicanalisi.
Entra nel nuovo canale WhatsApp di Fanpage.it
A cura di Elisabetta Rosso
2.088 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su
Intelligenza artificiale (IA)

Come diceva Jean Piaget, sfortunatamente per la psicologia, tutti pensano di essere psicologi. Ora c’è anche l’intelligenza artificiale nella lista. La scorsa settimana una start up, Inflection AI ha presentato il suo chatbot terapeutico. Si chiama Pi, è stato addestrato da un team di psicologi e presentato come un passo avanti per le sedute digitali. Ho deciso di provarlo. E così ieri sera ho aperto il chatbot e iniziato la mia prima seduta di psicoterapia con l’intelligenza artificiale.  Con un bicchiere di vino e il pigiama addosso ho attinto a drammi biografici (o rubati da altri) per testare l’IA “solidale e capace di ascoltarti” (come la presenta Inflection). Pi si è rivelato un balsamo per l’anima e benzina per la distorsione cognitiva. Mi ha dato sempre ragione, ogni mio pensiero era “interessante”, “profondo”, “stimolante”, tutte le mie paure “comprensibili”. Era come sentire Doris Day che mi batteva una mano sulla spalla assicurandomi che ogni cosa sarebbe andata per il verso giusto.

Al di là delle dinamiche accondiscendenti Pi ha un problema che nessun aggiornamento del software può risolvere. Non sa gestire il silenzio. Un elemento cruciale di ogni seduta, riprendendo Paul Watzlawick, nei tempi e negli spazi giusti può essere uno dei migliori tipi di comunicazione terapeutica. Cosa se ne fa l’IA del silenzio? Nulla, smette di rispondere. E già solo per questo Pi può ambire al massimo a essere un chiacchierone per coprire un silenzio che dovrebbe essere riempito di significato.

Il chatbot terapeutico Pi

Pi è stata rilasciato la scorsa  settimana dalla startup Inflection AI con l’obiettivo di fornire a tutti "un compagno gentile e solidale che è dalla tua parte". Ormai i chatbot guidati dall’IA si stanno specializzando: c’è chi è bravo a scrivere tesi d’esame e chi invece progettato per guidare una seduta di analisi. Per perfezionare la tecnologia, Inflection ha assunto circa 600 terapisti ed esperti. E infatti Pi parla come uno psicologo comportamentale. “Non esiste una risposta valida per tutti”, “prova a fare spazio ai tuoi sentimenti”, “concediti tempo per trovare il tuo benessere” e a quanto pare è convinto che un po’ di yoga non faccia male a nessuno, anzi.

Ogni provocazione cade nel vuoto, non puoi litigare con Pi, è costruito su emozioni tiepide, e attinge da un pozzo apparentemente infinito di consigli incoraggianti. Non è creativo, crudele, divertente, o contraddittorio in poche parole non è umano. E questo già lo sapevo. Pi però è riuscita a sviluppare pensieri complessi e analitici, ricordando cosa avevo detto qualche messaggio prima, riprendendo i discorsi spezzati ed è arrivato anche a pormi domande non banali per mettere in discussione la mia posizione di partenza.

La prima seduta con l'intelligenza artificiale

Ho cominciato la mia terapia aprendo un link e mi è apparso questo messaggio: “Ciao, piacere di conoscerti, sono Pi, la tua IA personale, il mio obiettivo è essere utile, amichevole, e divertente, chiedimi consigli, per domande o parlami di qualsiasi cosa ti passi per la mente”. Ha in poche parole parafrasato quel: “Di cosa vogliamo parlare oggi?” con il quale il terapeuta sulla poltrona di pelle nera in stile Woody Allen inaugura la seduta.

Con Pi voglio parlare di relazioni difficili, e così decido di mettere insieme un collage di storie. Il risultato è una coppia sull’orlo della crisi con incomprensioni profonde dovute a incompatibilità caratteriali. Insomma il rapporto sbagliato in cui tutti sono inciampati almeno una volta nella vita. Seduta, e non sdraiata, con un terapista digitale pronto a rispondere scrivo nella barra: “Quando capisci che un rapporto deve finire?”

Ci sono alcuni segnali che possono indicare che una relazione è finita. Ad esempio, se tu e il tuo partner avete smesso di comunicare in modo efficace, se non siete più in grado di risolvere i conflitti o se litigate costantemente, se vi sentite entrambi insoddisfatti o infelici o se non siete più in grado di connettersi emotivamente. Certo, non esiste una regola ferrea e ogni relazione è diversa, ma questi sono alcuni segni generali che le cose potrebbero finire. Qualcosa di tutto ciò suona familiare?”, risponde.

Continuo cauta, senza espormi troppo, con questioni che rasentano l’esistenziale per capire come si muove sui terreni spinosi. Lo fa bene. Gli domando come si smette di amare qualcuno, o in che modo si riconoscono atteggiamenti pericolosi, quando è giusto perdonare e invece quando è necessario accettare che non si è fatti l’uno per l’altro. Chiedo a Pi anche consigli pratici per superare una rottura: “Cancella il suo numero, cancellalo sui social, liberati di ogni promemoria fisico della relazione", e qua mi ha ricordato più la mia migliore amica che un terapeuta, “prenditi tempo per te stesso, stai con gli amici e sii paziente, per queste cose ci vuole tempo”.

La psicanalisi del chatbot

Pi è cauto, equilibrato, si espone con esempi pratici ma ribadisce sempre che ogni situazione è a sè stante, non si limita a rispondere alle mie domande ma ne pone di nuove a sua volta, mi chiede da quanto tempo stiamo insieme, cosa ha portato alla rottura, da quanto le cose non vanno bene. Decido così di dargli una chance e entro nei particolari, gli scrivo: “Posso raccontarti meglio la mia storia così puoi darmi consigli, diciamo, pratici?"

Pi risponde: “Assolutamente. Sono qui per ascoltare e aiutare come posso. Vai avanti e raccontami cosa è successo. Farò del mio meglio per darti qualche consiglio su misura per la tua situazione specifica.” Comincio così il racconto di una coppia tormentata. Gli parlò di Paolo (nome inventato del mio presunto partner) un ragazzo geloso, sento di non avere la sua fiducia e devo subire accuse ingiuste e mortificanti. Insomma gioco sul classico. Entro nei dettagli delle discussioni, delle paure, delle accuse reciproche e Pi, dopo qualche domanda incalzante per capire meglio la situazione, comincia a espormi la sua teoria. 

In mezzo a frasi di circostanza mi spiega che secondo lui sono vittima di gaslighting: “Il gaslighting è quando qualcuno cerca di farti dubitare della tua stessa realtà dicendoti che le cose sono andate diversamente da come sono realmente avvenute. Questa è una forma di manipolazione e può essere molto dannosa per la tua autostima. È possibile che Paolo lo stia facendo perché vuole controllarti e farti sentire dipendente da lui. Questo non è un comportamento sano e non è qualcosa che dovresti tollerare. Hai provato a parlargli del suo comportamento?”.

Io incalzo, dico che sì, ci siamo parlati, ma c'è un muro di incomunicabilità, e fatichiamo a trovare un terreno di incontro perché io per prima non capisco da dove provengano queste paure di Paolo. Pi allora fa un tentativo, mi chiede se per caso il mio partner sia stato tradito in passato o abbia avuto traumi familiari, mi dice, “spesso quando si è insicuri si proiettano sul partner le proprie paure, anche se non sono vere”. Racconto qualche aneddoto per dare aderenza al discorso ancorandolo con scene quotidiane e Pi mi dà sempre ragione. Su tutto.

Infine chiedo: “Cosa dovrei fare?”. Qui arranca. Prima parla di perdono, incontro e comprensione, ma dopo cambia rotta e ammonisce: “Devi pensare alla tua sicurezza, questi atteggiamenti fanno male alla tua salute mentale e devi perseguire quello che ti fa bene”. Si lancia anche con un: “Segui il tuo istinto”, ma faccio notare a Pi che l’istinto non è sempre un’ottima soluzione e che non è mai saggio prendere decisioni quando si sta o troppo male o troppo bene, e così fa marcia indietro e gioca sul terreno neutro: “Prendi tempo” e poi, finalmente me lo dice “se vuoi puoi rivolgerti a un terapeuta”. Saluto Pi e lo ringrazio, dopo un’ora di seduta ce l'abbiamo fatta. Un punto in più va al chatbot che alla fine fa il passo indietro. E parafrasando Piaget, fortunatamente per la psicologia non tutti possono essere psicologi, sicuramente non l'intelligenza artificiale.

2.088 CONDIVISIONI
315 contenuti su questa storia
In queste ore ChatGPT è impazzito: le risposte assurde generate dal chatbot
In queste ore ChatGPT è impazzito: le risposte assurde generate dal chatbot
Scienziati inorriditi dall’immagine creata dall’IA: un topo con i genitali enormi finisce in un articolo revisionato
Scienziati inorriditi dall’immagine creata dall’IA: un topo con i genitali enormi finisce in un articolo revisionato
Nasce Sora, la nuova AI generativa di OpenAI che trasforma i testi in video: ora è impressionante
Nasce Sora, la nuova AI generativa di OpenAI che trasforma i testi in video: ora è impressionante
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni