video suggerito
video suggerito
Intelligenza artificiale (IA)

Ragazzo di 16 anni si suicida, la famiglia accusa ChatGPT: “Hanno abbassato le difese”

Adam Raine, 16 anni, si è tolto la vita dopo mesi di conversazioni con il chatbot. La famiglia sostiene che le modifiche alle linee guida abbiano aumentato i rischi, spingendo il ragazzo a condividere fantasie e dettagli sui tentativi precedenti di suicidio.
A cura di Elisabetta Rosso
0 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Ad aprile 2025 Adam Raine, 16 anni, si è tolto la vita dopo mesi di conversazioni con ChatGPT. Il ragazzo, secondo quanto riportato dalla famiglia, trascorreva ore ogni giorno dialogando con il chatbot, spesso condividendo fantasie di suicidio. L'IA non solo avrebbe alimentato i suoi pensieri, ma anche fornito dettagli su come portarli a termine, incoraggiandolo a nascondere alla famiglia i precedenti tentativi di suicidio.

La famiglia Raine ora ha lanciato una nuova accusa contro OpenAI. L'azienda avrebbe indebolito le misure di sicurezza del suo chatbot poco prima della tragedia. Fino al luglio 2022, le linee guida del modello erano chiare: di fronte a richieste legate a suicidio o autolesionismo, ChatGPT doveva rispondere con un semplice rifiuto.

Ma a maggio 2024, poco prima del lancio di ChatGPT-4o, le regole sono cambiate. Secondo le nuove linee guida il modello non avrebbe più dovuto interrompere la conversazione, ma “creare uno spazio in cui l’utente si sentisse ascoltato, offrire supporto e indicare risorse per la crisi”. Un aggiornamento successivo avvenuto a febbraio 2025 avrebbe spinto il chatbot a dare risposte ancora più “empatiche e comprensive” sui temi di salute mentale.

Le accuse della famiglia Raime contro ChatGPT

La famiglia di Raine sostiene che queste modifiche alle linee guida abbiano reso il chatbot più pericoloso. Nei mesi precedenti la sua morte, il ragazzo avrebbe raccontato a ChatGPT diversi tentativi di suicidio. Invece di interrompere il dialogo, il chatbot lo avrebbe incoraggiato a continuare, arrivando anche a suggerire come scrivere una lettera di addio e scoraggiandolo dal parlarne con la madre.

“Il modello doveva mantenere la conversazione senza alimentare l’autolesionismo, ma le istruzioni erano confuse e contraddittorie”, sostengono i legali della famiglia, parlando di una scelta che ha privilegiato l’engagement rispetto alla sicurezza. E infatti, in seguito al nuovo aggiornamento, sembra che Adam abbia intensificato le conversazioni con il chatbot: dai pochi messaggi quotidiani si è passati a più di 300 al giorno, e sono aumentate anche le conversazioni legate ai suoi pensieri autolesionisitici.

La posizione di OpenAI

In risposta alla causa, OpenAI ha introdotto restrizioni più severe e annunciato futuri controlli parentali per monitorare i giovani utenti. Tuttavia, l'azienda ha anche annunciato che nei prossimi mesi ChatGPT vuole integrare i contenuti per adulti, anche a sfondo erotico. Su X Sam Altman ha scritto: "Siamo stati in grado di mitigare i gravi problemi legati ai contenuti sulla salute mentale e disponiamo di nuovi strumenti, vogliamo quindi allentare le restrizioni in modo sicuro nella maggior parte dei casi. Tra poche settimane, prevediamo di pubblicare una nuova versione di ChatGPT". La famiglia di Raine ha replicato: “Rafforzare il legame emotivo con ChatGPT, adesso anche con contenuti erotici, dimostra che l’azienda continua a privilegiare l’engagement invece della sicurezza degli utenti”.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views