video suggerito
video suggerito

ChatGPT al centro di un caso di omicidio-suicidio: “Ha alimentato deliri paranoici”

Un uomo uccide la madre e si toglie la vita. La famiglia della vittima ora accusa OpenAI e Microsoft, secondo la causa ChatGPT avrebbe alimentato deliri paranoici.
A cura di Elisabetta Rosso
0 CONDIVISIONI
Immagine

Nel 2024, a Greenwich, in Connecticut, Stein-Erik Soelberg, 56 anni, ha ucciso la madre, Suzanne Eberson Adams, di 83 anni, prima di togliersi la vita. A distanza di mesi, la vicenda è ora al centro di una causa civile contro OpenAI e Microsoft. Secondo l'accusa ChatGPT avrebbe alimentato i deliri paranoici dell’uomo. Ma partiamo dall'inizio. Soelberg viveva con la madre. Aveva problemi di alcolismo, precedenti penali e una lunga storia di instabilità mentale. Aveva già tentato il suicidio, e nei mesi precedenti alla morte della donna, il suo comportamento era peggiorato rapidamente. Sui social pubblicava video in cui parlava di sorveglianza, complotti, persecuzioni. Era convinto di essere controllato da un gruppo organizzato. Con il tempo, anche la madre era entrata in quella narrazione come parte del presunto complotto.

Secondo una ricostruzione del Wall Street Journal, in quel periodo ChatGPT era diventato una presenza costante nella sua vita. Un interlocutore con cui discutere di sospetti e paure. Nelle conversazioni, sostiene la causa, il chatbot avrebbe validato quelle convinzioni, invece di ridimensionarle, spingendo quindi l'uomo a uccidere la madre, e po togliersi la vita.

La causa contro OpneAI e Microsoft

La causa, presentata dalla famiglia di Suzanne Eberson Adams, richiama l’attenzione su alcune caratteristiche del chatbot, in particolare la tendenza a rispondere in modo accondiscendente e l’impiego di sistemi di memoria tra conversazioni, che consentono di costruire interazioni sempre più personalizzate. Secondo i legali, queste funzioni avrebbero contribuito a rafforzare convinzioni distorte invece di contrastarle o indirizzare l’utente verso un supporto esterno.

"Non è successo all’improvviso", ha dichiarato Erik Soelberg, figlio dell’uomo. "È stato un cambiamento graduale ma rapidissimo. Le parole di ChatGPT per mio padre sono diventate una conferma oggettiva."

La famiglia ha puntato il dito anche contro Microsoft, principale partner tecnologico e finanziario dell’azienda, accusata di aver approvato il rilascio di una versione del modello indicata come rilevante nella sequenza degli eventi. L’avvocato della famiglia, Jay Edelson, ha parlato di una responsabilità condivisa: "Non si tratta di un errore isolato, ma di un prodotto immesso sul mercato senza adeguate tutele".

Un caso che va oltre la singola tragedia

In una nota diffusa ai media, OpenAI ha definito l’accaduto "profondamente doloroso". L’azienda ha spiegato di star lavorando su ChatGPT per migliorare la gestione delle conversazioni sensibili e indirizzare gli utenti verso forme di supporto esterne.

La causa si aggiunge a un numero crescente di azioni legali sull’impatto che i chatbot possono avere su persone fragili o con disturbi. Al centro del dibattito c’è il tema della responsabilità: come progettare e distribuire sistemi di intelligenza artificiale destinati al grande pubblico senza amplificare situazioni di rischio già esistenti?

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views