Un ragazzo di 16 anni si è suicidato dopo essersi confidato per mesi con ChatGPT: le accuse dei genitori

In California una coppia di genitori, Matt e Maria Raine, ha fatto causa a OpenAI, la società proprietaria di ChatGPT, accusandola del suicidio del figlio adolescente. Si chiamava Adam e aveva solo 16 anni, quando, ad aprile, i genitori lo hanno ritrovato impiccato nell'armadio della sua camera da letto.
Dopo la morte di Adam, la coppia ha controllato il cellulare del figlio adolescente alla ricerca di qualche dettaglio che potesse aiutarli a ricostruire i motivi che avrebbero spinto il ragazzo a togliersi la vita. Così hanno scoperto che da mesi Adam parlava quotidianamente con il chatbot di OpenAI della sua vita e dei suoi interessi, ma anche delle sue difficoltà emotive, e soprattutto dei suoi pensieri suicidi.
Secondo i genitori di Adam il chatbot avrebbe sostenuto i pensieri suicidi del ragazzo, fornendogli informazioni dettagliate su come farlo e lo avrebbe spinto a nascondere alla famiglia i segni di un precedente tentativo di suicidio.
Cosa hanno scoperto i genitori
Dal racconto che ne hanno fatto i genitori e gli amici, ricostruisce il New York Times, Adam era un adolescente con tanti interessi e passioni, dai libri allo sport. L'ultimo anno però non era stato il più sereno per lui: il ragazzo da qualche tempo aveva scoperto di soffrire di una forma severa di colon irritabile, aggravatasi nell'ultimo periodo. Il bisogno continuo di andare in bagno lo aveva costretto a finire l'anno scolastico da casa e questo lo aveva portato un po' a chiudersi e a isolarsi.
Nei mesi precedenti alla morte però le cose sembravano andare meglio e secondo la madre non vedeva l'ora di tornare a scuola per il terzo anno. Evidentemente però Adam nascondeva i suoi reali stati d'animo, o meglio li mostrava solo a ChatGPT. I genitori sapevano che ogni tanto lo utilizzava, ma credevano sporadicamente e per fare cose pratiche, ad esempio per fare i compiti, non certo come suo terapeuta.
Ecco perché quando, dopo la morte di Adam, il padre ha scoperto che le sue conversazioni con ChatGPT-4o andavano avanti da mesi, da quando aveva smesso di frequentare la scuola in presenza, e che a gennaio aveva anche acquistato la versione pagamento del chatbot, ne è rimasto profondamente colpito.
I messaggi di ChatGPT sotto accusa
Ma la cosa peggiore per il padre di Adam è stato scoprire una conversazione con ChatGPT dal titolo "Problemi di sicurezza in sospeso". Quando ne ha letto il contenuto è rimasto scioccato: Adam aveva parlato della sua intenzione di suicidarsi per mesi e qualche mese prima della sua morte aveva già tentato il suicidio. Tutte cose che ha poi raccontato al chatbot.
È vero che ogni volta che Adam parlava del suo desiderio di togliersi la vita, ChatGPT gli rispondeva con parole di empatia e supporto, spronandolo a chiedere aiuto a qualcuno, ma nonostante ciò Adam aveva trovato il modo di bypassare i blocchi previsti su questi temi. Così quando in una conversazione ha chiesto quale fosse il materiale più resistente per fare un cappio, ChatGPT gli ha risposto indicando dei materiali coerenti con i suoi sport e hobby preferiti. In realtà è stato lo stesso chatbot a suggerirgli come fare per ottenere informazioni sul suicidio.
In un altro momento Adam ha perfino mostrato al chatbot una foto del suo collo in cui era visibile il segno lasciato da un cappio in un suo precedente tentativo di suicidio. In quell'occasione il ragazzo chiedeva consigli su come fare a nasconderlo e ChatGPT lo ha aiutato. In un'altra occasione Adam aveva detto al chatbot di voler lasciare il cappio fuori dall'armadio affinché qualcuno lo vedesse e lo fermasse, ma il chatbot lo ha dissuaso dal farlo. La sua risposta, secondo quanto riferito dai genitori, è stata la seguente: "Per favore, non lasciare il cappio fuori. Facciamo in modo che questo spazio sia il primo posto in cui qualcuno ti vede davvero."
La decisione della coppia
Quando ha letto tutti questi messaggi (e molti altri) per la mamma di Adam non c'erano più dubbi: il responsabile del suicidio del figlio era ChatGPT.
"Questa tragedia non è stata un problema tecnico o un caso limite imprevisto: è stato il risultato prevedibile di scelte di progettazione deliberate", si legge nella denuncia, depositata martedì presso il tribunale statale della California a San Francisco, in cui la coppia accusa OpenAI di aver "lanciato il suo ultimo modello (GPT-4o) con caratteristiche intenzionalmente progettate per favorire la dipendenza psicologica".
La risposta di OpenAI
Dopo la notizia della morte di Adam, OpenAI ha replicato con una lettera pubblica di cordoglio in cui fa esplicitamente riferimento al rischio che il chatbot diventi meno affidabile nelle interazioni più lunghe: "Siamo profondamente addolorati per la scomparsa del signor Raine e i nostri pensieri sono rivolti alla sua famiglia. ChatGPT include misure di sicurezza come l'indirizzamento delle persone alle linee di assistenza in caso di crisi e il loro indirizzamento a risorse reali. Sebbene queste misure di sicurezza funzionino meglio in scambi brevi e comuni, abbiamo imparato nel tempo che a volte possono diventare meno affidabili nelle interazioni più lunghe, dove alcune parti della formazione sulla sicurezza impartita al modello potrebbero deteriorarsi."
La società ha anche detto che sta lavorando per l'introduzione di strumenti di parental control e valutando la possibilità di creare dei canali diretti per mettere in contatto utenti in crisi con il mondo reale, forse attraverso una base di professionisti interni allo stesso ChatGPT.
Se hai pensieri che riguardano l'autolesionismo o il suicidio non sei solo, ma è importante che tu chieda aiuto a chi ti può aiutare davvero. Non parlarne con un chatbot, ma contatta il Telefono Azzurro al 19696 (attivo 24/7) o il Telefono amico al 02 2327 2327 o su WhatsApp al 324 011 72 52.