“Mio figlio si è ucciso dopo una mail, dentro c’era sua foto nudo fatta con l’IA”: la storia di John

John Burnett ha raccontato la sua storia a CBS Staturday Morning. John vive a Glasgow, in Kentucky, una piccola cittadina non lontana dal confine con il Tennessee. Suo figlio Elijah Heacock è morto a 16 anni. Si è tolto la vita dopo aver ricevuto una mail che conteneva una sua foto in cui era completamente nudo. Lo scatto non era originale: era stato creato con l’intelligenza artificiale.
Secondo la testimonianza di John Burnett insieme alla mail era arrivata anche una richiesta di denaro: 3.000 dollari per non mandare la fotografia ai suoi amici e alla sua famiglia. Una truffa. Una sextortion per essere precisi, quelle truffe in cui la richiesta di estorsione parte da materiale pornografico.
“Le persone che hanno organizzato questa truffa sono ben organizzate. Non hanno bisogno che le foto siano vere: possono creare qualsiasi cosa per ricattare”. Ha spiegato John. Nè lui, né la madre Shannon Heacock, avevano mai sentito parlare di schemi di truffa di questo tipo.
Quanto sono diffuse le truffe basate sulla sextortion
I casi di sextortion sono diffusi anche in Italia. Ne abbiamo parlato diverse volte su Fanpage.it. Come riporta Abc News, i casi di sextortion negli Stati Uniti sono in aumento. Non solo. Ad essere cresciuti sono anche i suicidi legati a questi casi. A volte il materiale da cui parte la truffa viene estorto con l’inganno, magari con un account falso con cui i truffatori intrecciano una relazione con la vittima.
Nel caso di Elijah la foto è stata semplicemente generata con l’intelligenza artificiale. Un processo che è stato fin troppo semplice. Negli ultimi anni sono comparsi diversi portali che creano nudi partendo da foto normali. In Italia avevamo avuto il caso di Bikini Off, un bot Telegram in cui bastava inviare una foto per avere come risultato un deepfake.