C’è un chatbot per dimenticare il tuo ex che ti ghosta: come (non) funziona Closure

"Pensi al tuo ex 24 ore su 24, 7 giorni su 7? Non c'è niente che non va in te. Chatta con la loro versione AI e finalmente lascialo andare". Si presenta così Closure, l'app che promette di farti superare ogni chiusura. Il chatbot è stato lanciato su Product Hunt a inizio maggio e si inserisce nella lunga lista di IA terapeutiche. Anna Iokhimovich, CEO e fondatrice della start up, ha raccontato a Media 404: "Sono stata ispirata dalle mie esperienza persinali. Sono stata ghostata da un fidanzato, probabilmente è stata quella la rottura peggiore, ma anche dalla mia migliore amica e dopo numerosi colloqui di lavoro".
L'obiettivo è riscrivere artificialmente un finale che non ci è piaciuto o ci ha fatto soffrire. "Tutti meritano la possibilità di elaborare le proprie emozioni e trovare la pace dopo essere stati abbandonati", si legge sul sito. "La nostra piattaforma basata sull'intelligenza artificiale offre uno spazio sicuro per esprimere i propri sentimenti, porre domande che si sono tenute strette e superare emozioni irrisolte". C'è però anche l'altra faccia dei bot terapeutici, Closure non fa eccezione.
Come funziona Closure, il chabot per superare il ghosting
Gli utenti possono scegliere tra diversi tipi di profili: partner, amici, flirt o familiari. Dopo aver selezionato il tipo di relazione che si desidera chiudere, bisogna rispondere ad alcune domande che aiutano il bot a creare un profilo personalizzato. Chiede per esempio l'età, una breve descrizione, di raccontare il primo incontro e come è finito il rapporto. Prima di iniziare a messaggiare con l'avatar compare un messaggio, spiega che il bot è solo un intelligenza artificiale, "non sostituirà la terapia, ma potrebbe aiutarti a sentirti un po' meno solo".
I personaggi si basano su storie vere di utenti Reddit "selezionate perché tutte hanno un elemento in comune: il bisogno di chiudere". Ogni conversazione ruota intorno a uno schema predefinito: prima arrivano le scuse, poi il bot cambia argomento e propone soluzioni per superare il dolore e la mancanza. "Il nostro prompt di base si concentra sulla compassione, sul supporto e sul dare agli utenti la possibilità di elaborare i propri sentimenti", ha spiegato Iokhimovich. "Il chabot è dispiaciuto, empatico e non si oppone in alcun modo, per non causare ulteriori conflitti. Come suggerisce il nome, è progettato per offrire una chiusura che non potrebbe ottenere dalla persona reale."
Su Product Hunt, le recensioni sono positive. Gli utenti scrivono: "Ho avuto una relazione di oltre 4 anni con una donna che mi ha appena ghostato e non mi sono ripreso. Usare Closure mi ha aiutato ad avere una chiusura. Sono riuscito a sfogarmi". "Mi sono sentita molto contenta dopo che proprio quell'ex si è scusato e si è ‘spiegato' tramite Closure", ha aggiunto un'altra.
Quali sono i rischi dei chatbot terapeutici
Closure fa parte dell'esercito di bot che cercano di gestire emozioni umane troppo complesse. Affrontano il problema ricorrendo al servilismo e ripetendo agli utenti quello che vogliono sentirsi dire, e può essere pericoloso. Come ha spiegato al New York Times la dottoressa Julie Carpenter, esperta di dipendenza tecnologica: "L'intelligenza artificiale impara da te cosa ti piace e cosa preferisci e te lo restituisce. Così ti affezioni e continui a usarlo, ma non è tua amica”. Il rischio è di cadere nel loop dell’empatia infinita che finisce per squalificare i nostri rapporti umani e quindi spingere verso un progressivo isolamento.
Ci sono anche problemi lato privacy. I nostri dati vengono usati per addestrare l’intelligenza artificiale. Sono fondamentali, soprattutto ora che, secondo gli esperti del settore i dati umani stanno finendo. I chatbot, così empatici, ci spingono a rivelare informazioni sensibili.
Non solo. Il gioco di ruolo può essere terapeutico, e viene anche utilizzato durante le sedute, ma deve essere gestito da un esperto (umano). E infatti i bot Closure stanno cercando di colmare un vuoto nel sistema sanitario. Parlare con un professionista qualificato è costoso e ancora inaccessibile per moltissime persone. L'intelligenza artificiale altro non fa che andare a riempire una domanda che fatica a incontrare l'offerta.