video suggerito
video suggerito

“Mi chiamano centinaia di genitori, anche le loro figlie sono state spogliate con un’app”

I deepnude sono immagini di nudi creati con l’intelligenza artificiale. Realizzarli è semplicissimo, basta scaricare un’app. Il fenomeno ora sta raggiungendo una dimensione globale e le vittime sono spesso ragazze molto giovani.
A cura di Elisabetta Rosso
58 CONDIVISIONI
Immagine

A settembre Almendralejo, un comune di Badajoz con circa 30.000 abitanti, è diventato l'epicentro di un caso di deepfake. Quando Isabel, nome inventato, entra in classe per il suo primo giorno di scuola un compagno le dice: "Ho visto una tua foto nuda", quella foto non è mai stata scattata ma lei sa che esiste, a spogliarla è stata l'intelligenza artificiale. Appena torna a casa racconta tutto a sua madre: "C'è una mia foto nuda in giro. Dicono che lo hanno fatto attraverso un’applicazione di intelligenza artificiale. Ho paura. È successo anche ad altre ragazze.”

Le vittime sono 20. Ma è solo l'inizio. Il caso di Almendralejo è stato raccontato su Instagram da Miriam Al Adib, ginecologa con 136.000 follower e madre di una delle vittime. Dopo la denuncia ha cominciato a ricevere messaggi di genitori che, come lei, avevano scoperto che le figlie erano state spogliate da un'app. Negli ultimi giorni al canale Wales Live della Bbc ha rivelato: "Centinaia di persone mi hanno scritto dicendomi che anche a loro era successa la stessa cosa e non avevano ricevuto alcun tipo sostegno".

Il fenomeno sta raggiungendo una dimensione globale, secondo Al Adib le famiglie di tutto il mondo si troveranno ad affrontare il problema delle immagini deepfake, ha anche incentivato le ragazze a denunciare "ditelo ai vostri genitori, è importante saperlo e non vergognarsi, farsi avanti ha aiutato molte ragazze anche perché la combinazione tra social network, pornografia e intelligenza artificiale è un'arma di distruzione".

Cosa sta succedendo in Italia

I primi segnali sono arrivati ad aprile, quando a Roma due ragazzini hanno spogliato le compagne usando Bikini Off. L'app in realtà è nata in Francia e poi si è diffusa in tutto il mondo nel 2022, registrando numeri record di download tra i ventenni. A inizio ottobre l'allarme è scattato anche a Treviso, dopo la segnalazione di due ragazze, una che frequenta le medie, l'altra il liceo, gli agenti della polizia postale ora stanno indagando per capire chi abbia modificato le immagini fake dei nudi generati con l'IA e chi potrebbe averle diffuse.

"In Italia il fenomeno sta crescendo", aveva spiegato Barbara Strappato, dirigente della polizia postale, a Fanpage.it. "Le prime segnalazioni da parte delle vittime sono arrivate a marzo. Alla fine è un’estorsione sessuale, la novità è aver trovato applicazioni che sfruttando l’intelligenza artificiale riescono a spogliare le persone, sono dei falsi, ma il risultato è convincente, non è come mettere il volto di qualcuno su un corpo nudo."

Cosa è stato detto durante il vertice sull'IA

Durante il primo vertice sulla sicurezza dell'intelligenza artificiale del Regno Unito, il ministro dell'Interno Suella Braverman ha spiegato che sarà necessario reprimere il materiale pedopornografico generato dall'intelligenza artificiale. "I contenuti di sfruttamento e abuso sessuale minorile generati dall'intelligenza artificiale sono illegali, indipendentemente dal fatto che raffigurino o meno un bambino reale. L‘Online Safety Act richiederà alle aziende di intraprendere azioni proattive nell'affrontare tutte le forme di abuso sessuale sui minori online, inclusi adescamento, live streaming, materiale pedopornografico, altrimenti dovranno affrontare multe salate."

Lo tsunami del porno deepfake

La Internet Watch Foundation in un rapporto pubblicato ottobre 2023, ha scoperto che in un mese sono state trovate più di 20.000 immagini generate dall’intelligenza artificiale su un forum che condivide materiale pedopornografico. Susie Hargreaves, amministratrice delegata della Internet Watch Foundation, ha detto "sta arrivando uno tsunami, sta per succedere e dobbiamo affrontarlo urgentemente". Anche la Lucy Faithful Foundation, associazione che si dedica alla prevenzione degli abusi sessuali sui minori, ha spiegato che si sta preparando a una “esplosione” di materiale pedopornografico creato dall’intelligenza artificiale.

I numeri del porno deepfake stanno crescendo esponenzialmente. Nel 2019, DeepTrace, una società con sede ad Amsterdam che monitora i media online, ha rilevato che il 96% del materiale deepfake in rete è di natura pornografica. L’analista Genevieve Oh ha invece scoperto che il numero di video porno deepfake è quasi raddoppiato ogni anno dal 2018. A febbraio 2023 è stato registrato il maggior numero di porno deepfake prodotti e caricati in un mese.

58 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views