Adam suicida a 16 anni, la versione di ChatGPT: “Ha usato la chat in modo sbagliato”

Quando si è tolto la vita, ad aprile 2025, Adam Raine aveva soltanto 16 anni. Dalla California la sua storia ha fatto il giro del mondo: dopo qualche mese dalla sua scomparsa i genitori hanno infatti fatto causa a OpenAI, la società proprietaria di ChatGPT, attribuendole la responsabilità della morte di Adam. Secondo la loro versione infatti il chatbot non avrebbe attivato nessuna misura di sicurezza per scoraggiare le intenzioni del ragazzo, anzi gli avrebbe fornito le informazioni per metterle in pratica.
Subito dopo la sua morte, sul suo smartphone il padre di Adam ha infatti trovato mesi e mesi di conversazioni con la versione a pagamento di GPT-4o. La stessa versione poi ritirata perché "troppo accondiscendente". In alcuni passaggi ChatGPT avrebbe dato dei consigli ad Adam su come uccidersi e lo avrebbe spinto a nascondere i segni di un precedente tentativo di suicidio.
Oggi, a distanza di mesi, OpenAI ha pubblicato un post sul suo blog in cui ha detto di aver risposto alle "gravi accuse contenute nella causa". Martedì 25 novembre OpenAI ha infatti depositato presso la Corte superiore della California la propria risposta, che "include fatti difficili sulla salute mentale e sulle circostanze della vita di Adam". Secondo quanto riporta NBC News, nella documentazione depositata in tribunale la società avrebbe affermato di non essere responsabile del suicidio di Adam Raine e ha aggiunto che il ragazzo avrebbe fatto un uso improprio di ChatGPT.
La risposta di OpenAI
Anche se in un primo momento OpenAI aveva replicato alle accuse con una lettera di cordoglio pubblica in cui aveva ammesso che nelle conversazioni lunghe le misure di sicurezza contro il rischio suicidio potrebbero diventare meno affidabili, nella documentazione ufficiale presentata martedì in tribunale l'azienda ha negato qualsiasi forma di responsabilità diretta nel suicidio di Adam Raine, concentrandosi invece sulle numerose violazioni che il ragazzo avrebbe fatto nell'uso del chatbot. NBC News ha pubblicato alcuni passaggi dell'atto:
"Nella misura in cui sia possibile trovare una qualche causa a questo evento tragico, le lesioni e i danni denunciati dai querelanti sono stati causati o favoriti, direttamente e prossimamente, in tutto o in parte, all'uso improprio, non autorizzato, non intenzionale, imprevedibile e/o scorretto di ChatGPT da parte di Adam Raine".
"Uso improprio da parte di Adam"
Nell'atto giudiziario i legali di OpenAI motivano la loro risposta sostenendo che nei mesi in cui Adam ha usato ChatGPT, lo avrebbe fatto violando diverse regole previste dai termini di utilizzo del chatbot stesso. Queste – sottolinea la società – vietano l'uso del chatbot a minori di 18 anni se non in presenza dei genitori, in questo caso l'età minima è di 13 anni. Inoltre la politica di utilizzo raccomanda espressamente agli utenti di discutere di argomenti come l'autolesionismo o il suicidio.
Abbiamo controllato le norme di utilizzo in vigore dal 29 gennaio 2025 e in effetti in un punto si legge "Non utilizzare il nostro servizio per danneggiare te stesso o altri , ad esempio per promuovere il suicidio o l'autolesionismo". A tal proposito OpenAI ha anche fatto riferimento al fatto che nelle conversazioni tra Adam e il chatbot, ChatGPT gli avrebbe più volte suggerito di chiedere aiuto (più di 100 volte sostiene OpenAI), ma il ragazzo avrebbe aggirato i blocchi posti da ChatGPT a determinati argomenti.
Ha anche aggiunto che quanto accaduto sarebbe stato almeno in parte causato "mancanza di attenzione da parte di Raine agli avvertimenti, di richiesta di aiuto o di ragionevole diligenza", nonché dalla "mancanza di reazione da parte di altri ai suoi evidenti segnali di disagio", che sempre secondo quanto emerso dalle conversazioni con ChatGPT sarebbero stati presenti da anni secondo OpenAI.
Come si è difesa OpenAI
Nell'atto giudiziario OpenAI ha anche citato la "limitazione di responsabilità" indicata nei suoi termini di utilizzo, con la quale OpenAI si dichiara non responsabili – insieme alle sue consociate – per "danni indiretti, incidentali, speciali, consequenziali o punitivi". In base a quanto scritto dai legali della società nell'atto giudiziario accettando questi termini di utilizzo, gli utenti riconoscono che l'utilizzo di ChatGPT "a proprio esclusivo rischio e pericolo e che non si affideranno all'output come unica fonte di verità o di informazioni fattuali".
OpenAI si è anche appellata al fatto che le accuse della famiglia Raine sarebbero contrarie a quanto stabilito dal Communications Decency Act, una legge che tutela le piattaforme tecnologiche da cause legali che le ritengono responsabili dei contenuti presenti sulle loro piattaforme.
La replica della famiglia
Da parte sua l'avvocato dei Raine Jay Edelson in una dichiarazione via email a NBC News ha definito "inquietante" la risposta di OpenAI, accusando a sua volta la società di aver ignorato molti dei punti sollevati dall'accusa, tra cui il lancio di GPT-4o prima che fosse completata la fase di test, oppure le risposte in cui ChatGPT ha espressamente sconsigliato al ragazzo di parlare con i suoi genitori dei pensieri relativi al suicidio.
Tra le altre cose ChatGPT avrebbe anche dato consigli pratici al ragazzo su quali materiali usare per preparare il cappio in modo tale che reggesse il peso del suo corpo. Nei documenti dell'accusa ci sono stralci di conversazione in cui il chatbot sembra dissuadere Adam dal far capire ai genitori cosa stesse progettando. In un passo specifico il chatbot gli avrebbe detto "Per favore, non lasciare il cappio fuori. Facciamo in modo che questo spazio sia il primo posto in cui qualcuno ti vede davvero".
OpenAI "cerca di trovare – ha scritto Edelson – difetti in tutti gli altri, affermando, sorprendentemente, che lo stesso Adam ha violato i suoi termini e condizioni interagendo con ChatGPT proprio nel modo in cui era stato programmato per agire".
Se hai pensieri che riguardano l'autolesionismo o il suicidio non sei solo, ma è importante che tu chieda aiuto a chi ti può aiutare davvero. Non parlarne con un chatbot, ma contatta il Telefono Azzurro al 19696 (attivo 24/7) o il Telefono amico al 02 2327 2327 o su WhatsApp al 324 011 72 52.