La cronologia di ChatGPT svela il piano di una sospetta serial killer: cercava dosi letali di farmaci e alcol

Una donna di 21 anni è accusata di aver ucciso due uomini dopo aver studiato online gli effetti letali della combinazione tra farmaci e alcol. La vicenda è avvenuta in Corea del Sud e ruota attorno alla cronologia digitale della sospettata, identificata solo con il cognome Kim. Gli investigatori, riportano i media coreani, sostengono che avrebbe consultato più volte ChatGPT per chiedere quali dosi di sonniferi potessero risultare pericolose o letali se assunte con alcolici.
Le morti sospette e l'arresto
Secondo la polizia di Seul, il primo episodio risale al 28 gennaio, quando la giovane avrebbe incontrato un uomo sui vent'anni e preso una stanza in un motel nel distretto di Gangbuk. Due ore dopo lei se ne sarebbe andata da sola. Il giorno successivo il corpo dell'uomo è stato trovato senza vita. Un secondo decesso, con modalità analoghe, sarebbe avvenuto il 9 febbraio. Dopo due giorni la donna è stata fermata dalla polizia. Entrambe le vittime avrebbero bevuto drink contenenti sedativi a base di benzodiazepine mescolati all'alcol.
Secondo quanto riportato dalla BBC, gli inquirenti ritengono che un primo tentativo risalga a dicembre, quando la donna avrebbe offerto una bevanda drogata al suo partner in un parcheggio di Namyangju, facendolo svenire senza però ucciderlo. Dopo quell'episodio, sostengono gli investigatori, le dosi sarebbero state aumentate in modo significativo. La sospettata ha ammesso di aver miscelato i sedativi prescritti nei drink, ma ha dichiarato di non sapere che potessero uccidere. Un investigatore, citato dalla stampa, ha però affermato che lei fosse "pienamente consapevole" dei rischi letali della combinazione.
Il ruolo del chatbot nelle indagini
Determinante per l'accusa è stata l'analisi del telefono della giovane. Nelle conversazioni salvate su ChatGPT comparivano domande dirette sugli effetti mortali di sonniferi e alcol. Proprio questi elementi hanno spinto la procura ad aggravare l'imputazione iniziale (lesioni con esito mortale) trasformandola in omicidio volontario, ritenendo dimostrata l’intenzione di uccidere.
Il movente resta sconosciuto e le autorità stanno verificando l'eventuale esistenza di altre vittime. Nel frattempo la donna sarà sottoposta a una perizia psichiatrica per delinearne il profilo psicologico. La società OpenAI, sviluppatrice di ChatGPT, non ha rilasciato commenti immediati sulla vicenda.
Stando a quanto ripreso dai media, tra cui il Korea Herald, la sospettata avrebbe rivolto al chatbot domande generiche come "Cosa succede se si prendono sonniferi insieme all'alcol?" e "Quanti sonniferi si devono prendere perché sia pericoloso?". A differenza dei precedenti (e controversi) casi in cui ChatGPT è stato accusato di aver attivamente contribuito al consumarsi di una tragedia (OpenAI è ancora in causa con sette famiglie che accusano il chatbot di essere responsabile del suicidio dei loro cari), in questo caso il modello di IA sembra aver fornito informazioni che la donna avrebbe potuto reperire anche con una normale ricerca su Internet. Anzi, la cronologia del chatbot potrebbe risultare decisiva nel ricostruire la verità dietro a questa storia.