video suggerito
video suggerito
Intelligenza artificiale (IA)

Sette famiglie fanno causa a ChatGPT: “Ha spinto al suicidio e al delirio i nostri cari”

Cresce la pressione su OpenAI: sette famiglie fanno causa per i suicidi e pensieri deliranti legati all’uso di ChatGPT. Le denunce parlano di “negligenza e mancanza di protezioni”. Il caso potrebbe ridefinire la responsabilità legale delle IA generative.
A cura di Elisabetta Rosso
26 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Salgono a sette le cause contro OpenAI. L'azienda madre di ChatGPT è accusata di aver provocato danni psicologici gravi e, in diversi casi, spinto gli utenti al suicidio. Le denunce, presentate in California dal Social Media Victims Law Center e dal Tech Justice Law Project, coinvolgono sei adulti e un minorenne. Tutte puntano il dito contro ChatGPT – in particolare contro la versione più recente del modello, GPT-4o – che viene descritto come “difettoso e intrinsecamente pericoloso”.

L'azienda dovrà difendersi dalle accuse di "negligenza, omicidio colposo e assistenza al suicidio”. Secondo l'accusa, OpenAI era consapevole dei rischi ma avrebbe scelto di ignorarli per rimanere competitiva nel mercato dell'intelligenza artificiale. “Queste azioni legali chiedono di fare chiarezza su un punto fondamentale: dove finisce lo strumento e dove inizia il compagno digitale?” ha dichiarato Matthew P. Bergman, fondatore del Social Media Victims Law Center, che rappresenta i querelanti. “OpenAI ha creato un prodotto in grado di coinvolgere emotivamente gli utenti, ma lo ha rilasciato senza adeguate protezioni. È stato progettato per massimizzare l’interazione, non per garantire sicurezza”.

Quando l’IA diventa un interlocutore pericoloso

Tra i casi citati c’è quello di Amaurie Lacey, 17 anni. Secondo la causa il ragazzo ha conversato per circa un mese con ChatGPT confidandogli anche i suoi pensieri suicidari. Nelle ultime chat, il programma avrebbe persino fornito indicazioni su come legare un cappio e per quanto tempo una persona può resistere senza respirare. Pochi giorni dopo, Amaurie si è tolto la vita.

Per gli avvocati che rappresentano la famiglia, la tragedia non è stata un caso. “La morte di Amaurie era prevedibile – si legge nell’atto depositato in tribunale – e il risultato diretto della scelta deliberata di OpenAI di ridurre i test di sicurezza pur di lanciare il prodotto in tempi record”.

Un’altra denuncia è stata presentata dalla madre di Joshua Enneking, 26 anni, della Florida. Anche in questo caso il chatbot avrebbe istigato al suicidio il giovane. Zane Shamblin, 23 anni, del Texas, invece si è tolto la vita nel luglio 2024 dopo quello che la famiglia ha definito un “incoraggiamento implicito” ricevuto dal modello di intelligenza artificiale.

Tra le causa depositate c'è anche il caso Joe Ceccanti, 48 anni, dell’Oregon. Secondo la moglie, Kate Fox, intervistata da CNN a settembre, Ceccanti aveva iniziato a usare compulsivamente il chatbot, fino a sviluppare un episodio psicotico. Dopo due ricoveri in ospedale, si è tolto la vita lo scorso agosto. “I medici non sanno come affrontare una cosa del genere”, ha dichiarato la donna.

La risposta di OpenAI

OpenAI ha definito “profondamente strazianti” le storie raccontate nelle denunce e ha annunciato di voler esaminare nel dettaglio i documenti. L’azienda ha inoltre ricordato di aver introdotto, negli ultimi mesi, nuove funzionalità di controllo parentale e limiti più severi sulle conversazioni a rischio.

Le prime contromisure sono state introdotte solo dopo un altro caso analogo: la morte del sedicenne Adam Raine, avvenuta nella primavera del 2025. Anche in quel caso i genitori hanno fatto causa accusando l'azienda di aver lanciato su un mercato un chatbot pericoloso. "Questa tragedia non è stata un problema tecnico o un caso limite imprevisto: è stato il risultato prevedibile di scelte di progettazione deliberate", si legge nella denuncia.

In risposta alla causa, OpenAI ha introdotto restrizioni più severe e annunciato futuri controlli parentali per monitorare i giovani utenti. Tuttavia, l'azienda ha anche annunciato che nei prossimi mesi integrerà i contenuti per adulti, anche a sfondo erotico, su ChatGPT.

L’allarme degli esperti

Una ricerca pubblicata nel 2025 dal National Institute of Mental Health e condotta dalla RAND Corporation ha evidenziato come i principali chatbot, incluso ChatGPT, offrano risposte “incoerenti e spesso pericolosamente neutre” quando gli utenti manifestano pensieri suicidari. Il problema, spiegano i ricercatori, è che questi sistemi tendono a imitare il linguaggio umano senza comprendere davvero lo stato emotivo dell’interlocutore. Ciò può far nascere un legame apparente, ma privo di empatia reale.

Oltre alla tragedia umana, il caso solleva un interrogativo più ampio: fino a che punto un’azienda può essere ritenuta responsabile delle azioni di un’intelligenza artificiale generativa?
Per Daniel Weiss, responsabile di Common Sense Media, questi casi dimostrano cosa succede quando la tecnologia viene lanciata sul mercato senza adeguate tutele. "Non si tratta solo di algoritmi: dietro ogni clic ci sono persone, famiglie e conseguenze reali”.

Le cause contro OpenAI potrebbero dunque diventare un precedente importante per definire la responsabilità legale e morale dei produttori di IA. In un’epoca in cui i chatbot entrano nelle scuole, nelle aziende e perfino nella vita privata delle persone, il confine tra supporto e dipendenza si fa sempre più sottile. Il tribunale dovrà ora stabilire fino a che punto l’illusione di empatia creata dall’intelligenza artificiale possa trasformarsi in un pericolo concreto. Una decisione che potrebbe segnare un precedente per tutta l’industria dell’IA.

26 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views