video suggerito
video suggerito

Può ChatGPT sostituire davvero lo psicologo? Cosa si nasconde dietro le app di psicoterapia basate sull’IA

Mentre sempre più persone si rivolgono ai chatbot come se fossero loro confidenti, il mercato delle app sta iniziando investire in strumenti che promettono di simulare vere e proprie sedute di psicoterapia attraverso l’IA. Gli studi condotti finora sui loro possibili benefeci e rischi mostrano ancora risultati incerti.
31 CONDIVISIONI
Immagine

Anche se l'intelligenza artificiale generativa è entrata nelle nostre vite relativamente da poco tempo, ha già cambiato molte cose. Alcune sono più evidenti, come l'uso che ne facciamo in praticamente quasi tutti i settori lavorativi, altre rischiano di cambiarci più lentamente. Se in bene o in male, questo resta un punto di domanda.

Ad esempio, sempre più persone usano i chatbot per confidarsi su ciò che li rende poco sereni, come un litigio, una delusione o un problema a lavoro. Ci sono già tante storie di persone che giurano di essersi innamorate di ChatGPT. E il mercato digitale ha subito intercettato questo fenomeno: negli ultimi tempi sono state lanciate tantissime app specifiche per rispondere a questa nuova domanda. Dalle piattaforme di accompagnamento alla meditazione a dei veri e propri chatbot che simulano sedute di psicoterapia. Ne ha parlato in questo articolo su The Conversation NeuPooja Shree Chettiar, ricercatrice in Neuroscienze della Texas A&M University.

Le app di psicoterapia basate sull'IA

Una di queste app che usano l'intelligenza artificiale per imitare vere conversazioni terapeutiche è Wysa. Abbiamo verificato di cosa si tratta dalla sua presentazione su Play Store. Il nome intero è Wysa: Mental Wellbeing AI ed è stata scaricata più di un milione di volte. Promette di offrire un "supporto mentale completo" e tools di self-care basati su alcune delle più note scuole di psicoterapia, come la psicoterapia cognitivo-comportamentale o la terapia dialettico-comportamentale.

Insomma, non si tratterebbe di un semplice confidente, ma di uno strumento strutturato: "I nostri metodi – si legge sul sito dell'app – sono convalidati dalla ricerca e fidati dalle principali organizzazioni sanitarie per migliorare il benessere mentale". Per quanto riguarda i prezzi, come per la maggioro parte di queste app, oltre a una versione gratuita, c'è l'opzione premium a pagamento, che permette di avere servizi aggiuntivi e funzionalità extra rispetto alla versione gratuita.

Il dibattito tra gli esperti di salute mentale

Oltre ai suoi effetti sul mercato delle app, c'è da dire che l'utilizzo dell'IA per creare strumenti a sostegno della salute mentale è un tema che sta coinvolgendo anche psicologi ed esperti del settore. Sui possibili rischi e gli eventuali benefici, sono stati condotti anche diversi studi e sondaggi. "Alcuni studi – scrive Chettiar – hanno dimostrato che le forme digitali di terapia possono ridurre i sintomi di ansia e depressione, specialmente per i casi lievi e moderati", ma è anche vero che i benefici riscontrati sembrano essere soltanto temporanei: "Questi effetti tendono a diminuire nel tempo e non si osservano benefici duraturi a 12 mesi", si legge in conclusione a una recente ricerca che ha confrontato i risultati di 17 studi sul tema.

Sembra infatti che il punto forte di queste app sia quella di simulare una forte empatia nei confronti dell'utente con l'obiettivo di aiutarlo in un momento di stress mentale molto intenso, proprio attraverso le tecniche della terapia cognitivo-comportamentale. Eppure, ci sono rischi nascosti che non vanno sottovalutati.

Quali sono i rischi

Per prima cosa, la chiarezza e l'affidabilità scientifica di questi strumenti. Molte di queste app riportano – avverte la ricercatrice – slogan come "convalidato clinicamente" o "approvato dalla FDA" (l'autorità che regolamenta il settore farmaceutico e alimentare negli Usa), tali affermazioni sono spesso non verificate. Secondo uno studio che ha testato 27 tra le app più diffuse per trattare depressione e ansia, meno del 22% ha citato studi scientifici effettivi.

Poi, c'è il tema della privacy: le persone che usano questi strumenti infatti spesso dimenticano che, a differenza di un psicologo o psichiatra in carne e ossa, non esistono codici deontologici per le app di mental health, né tanto meno segreti professionali. Se non ci si informa bene sulla politica dell'app che stiamo utilizzando, il rischio è quello di incappare in piattaforme che conservano i nostri dati all'interno di enormi database. "Che succederebbe se venissero rubati da un attacco hacker?", si chiede l'esperta.

E poi resta un punto fondamentale da tenere in considerazione: parlare con un chatbot ha davvero lo stesso effetto che rivolgersi a un essere umano? La neuroscienza suggerisce che "la stessa connessione umana di supporto attivi delle reti cerebrali che nessuna IA può raggiungere", si legge nell'articolo, almeno per ora.

In definitiva, come spesso abbiamo detto anche per la medicina, l'IA non è necessariamente un male, le sue potenzialità sono davvero infinite, ma oggi forse è troppo presto (e i rischi ancora troppo grandi) per pensare che uno strumento IA possa sostituire del tutto le competenze umane e professionali di uno specialista in carne e ossa, soprattutto se parliamo di un tema delicato qual è la salute, sia essa fisica o mentale.

31 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views