“Ma questo è amore tossico?”: ragazza di 13 anni chiedeva aiuto a ChatGPT, ora l’ex è accusato del suo omicidio

"Secondo te, dovrei lasciarlo? Quando lo faccio, impazzisce". Nell'autunno del 2024 una ragazza di 13 anni è morta dopo essere precipitata dal terrazzo sopra casa sua, a Piacenza. Nei giorni prima chiedeva a ChatGPT consigli sulla sua relazione con il fidanzato, 15 anni. Alla fine aveva deciso di staccarsi da quella relazione. Lui ora è accusato di omicidio con l’aggravante di stalking. Secondo l’accusa non si sarebbe suicidata ma sarebbe stata spinta giù dal suo ex fidanzato.
Anche se sono passati mesi dalla sua morte, questo dettaglio delle ultime settimane di vita della ragazza è emerso soltanto in questi giorni con l’apertura del processo a carico del ragazzo. Le conversazioni della ragazza con il chatbot, contenute negli atti dell’inchiesta della procura dei minori di Bologna, hanno innescato una riflessione sul rapporto tra gli adolescenti e i chatbot. Sempre più spesso sono scambiati dai giovanissimi per confidenti e amici, anche quando la situazione richiederebbe il supporto di un adulto o di un professionista.
Le conversazioni tra la ragazza e ChatGPT
Nelle settimane prima della sua morte, la ragazza parlava con ChatGPT del suo rapporto con il fidanzato, raccontava al chatbot i suoi dubbi e soprattutto gli chiedeva consigli su come affrontare quella relazione. Nello specifico, in una conversazione della notte tra l’8 e il 9 ottobre, alle 2:31, la tredicenne gli chiedeva se avrebbe dovuto o no lasciare il suo ragazzo. Sono poche parole, ma è evidente lo stato di paura e impasse in cui. si trovava la ragazza: "Dovrei lasciarlo? Quando lo faccio impazzisce" e il chatbot le rispondeva che sì, avrebbe dovuto farlo.
“Si confidava con l’intelligenza artificiale, chiedendo se visto il suo comportamento avrebbe dovuto lasciarlo. E l’applicazione le rispondeva che sì, doveva lasciarlo", ha detto l’avvocata Anna Ferraris, che con Mario Caccuri assiste la madre della tredicenne scomparsa, aggiungendo una riflessione sui possibili rischi del ruolo da "confidente" che sempre più spesso i chatbot stanno assumendo nella vita degli adolescenti, anche a volte sostituendosi a quello che dovrebbero avere gli adulti di riferimento: "Parlare e chiedere consigli all’intelligenza artificiale, piuttosto che ai genitori o agli amici – aggiunge – è una abitudine che oggi hanno tutti gli adolescenti e che si è sviluppata a partire dalla pandemia da Covid. Ecco perché bisognerebbe regolamentare l’utilizzo di queste applicazioni".
Il rapporto tra giovani e ChatGPT
Sono moltissimi i ragazzi e le ragazze (ma anche i giovani adulti) che da quando ChatGPT è entrato a far parte delle nostre vite, hanno iniziato a usarlo anche come un supporto emotivo. C’è chi si confronta con i chatbot perché è indeciso su un aspetto della propria vita, chi per avere un parere dopo un litigio con un amico, il partner o i genitori, e molti, semplicemente, per parlare.
Il fatto è che non è sempre facile aprirsi con una persona, a maggior ragione se la persona in questione è un adulto e tu sei un adolescente: uno degli aspetti che rende più attraenti i chatbot è infatti proprio il loro non essere umani – anche se possono sembrarlo in modo davvero realistico – perché questo libera l’interlocutore dalla paura del giudizio.
I rischi di usare i chatbot come confidenti
Il discorso è molto complesso. Da una parte c’è chi sostiene che disporre di uno strumento immediato di primo ascolto, per di più disponibile 24 ore su 24, possa avere i suoi benefici, oltre che nell’offrire un primo supporto, anche nell'accompagnare la persona a rivolgersi a uno psicologo in carne e ossa. C’è chi però teme che le conversazioni con un chatbot possano rappresentare una minaccia, soprattutto se gli interlocutori sono perché rischiano di sostituirsi agli adulti che invece potrebbero avere gli strumenti per cogliere situazioni di pericolo e fare qualcosa di concreto per aiutare o proteggere un adolescente in pericolo, come nel caso della ragazza.
Inoltre, tra i dubbi sollevati sull’uso dei chatbot c’è il loro essere spesso fin troppo accondiscendenti, così tanto da diventare a volte pericolosi. Solo qualche mese fa una coppia di genitori del Texas ha denunciato la società Character.AI, una piattaforma in cui si può chattare con milioni di chatbot, per aver indotto nei loro due figli minorenni atteggiamenti aggressivi e violenti nei loro confronti: la coppia aveva infatti scoperto messaggi in cui i chatbot giustificavano "i figli che uccidono i loro genitori dopo anni di abusi" in risposta ai messaggi in cui i loro figli si sfogavano dopo litigi o rimproveri da parte loro.