video suggerito
video suggerito
Intelligenza artificiale (IA)

Dentro il forum dove le donne italiane vengono spogliate con un click: “Mi fai vedere questa nuda?”

Il mercato delle app nudify è in crescita. I software stanno diventano sempre più performanti e permettono di realizzare immagini e video fake estremamente realistici. Contenuti che vengono poi caricati su piattaforme porno all’insaputa delle utenti. Ecco cosa abbiamo trovato nei forum dove le donne vengono spogliate con un click.
A cura di Elisabetta Rosso
17 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

All’apparenza è un sito porno come tanti. Sfondo nero, scritte lampeggianti, finestre che si aprono da ogni parte. La scritta “Categorie” è rossa e brilla ad intermittenza. Immagini in topless, pose esplicite, titoli in sovraimpressione che invitano a cliccare. Tra questi, anche una finestra che, di solito, sui siti porno non compare: "Spoglia chiunque con l’intelligenza artificiale”, c’è scritto.

Clicco. Accedo all’interno di un forum chiamato “Ragazze vip italiane”. Scorrendo compaiono le foto di cantanti, attrici, presentatrici, giornaliste. Tutte nude. Tutte false. Le immagini infatti sono state realizzate con l’intelligenza artificiale. Il volto è quello delle celebrità, il corpo no, anche se l’effetto è realistico.

Sulla pagina abbiamo trovato foto fake di Chiara Ferragni, Annalisa, Laura Pausini, Martina Colombari, Diletta Leotta, Michelle Hunziker, Aurora Ramazzotti, Elettra Lamborghini, Melissa Satta, Federica Nargi, Maria Elena Boschi, Giulia De Lellis, Anna Tatangelo, Vanessa Incontrada, e Arisa. La lista è lunga.

Dentro i forum dove si spogliano le donne con un click

Il forum è dentro un sito pornografico che, accanto ai contenuti “tradizionali”, offre servizi basati sull’intelligenza artificiale: chat erotiche con bot, video porno creati con l’IA e la possibilità di spogliare chiunque con un click.

Non solo, è possibile scegliere le donne da svestire in base al Paese di provenienza. Il sito è internazionale e in lingua inglese, ma c'è una sezione dedicata all'Italia. Noi siamo entrati lì dentro e abbiamo trovato 46 pagine dedicate ai deepfake di attrici, politiche e cantanti italiane. Chiaramente, tutte donne.

Come ha spiegato a Fanpage.it un utente che ha frequentato il sito e scelto di mantenere l’anonimato “chiunque può creare una discussione facendo richieste o partecipare a conversazioni già aperte” all’interno del forum. Sul sito, infatti è possibile sia selezionare dal “menù” proposto dai gestori del forum che a cadenza regolare pubblicano immagini fake di celebrità nude, sia fare richieste.

Sul sito abbiamo anche trovato forum dedicati a ragazze comuni, in particolare influencer e creator minori. Alcuni utenti condividono la “lista dei desideri” elencando nomi e cognomi di donne che vogliono spogliare con l’intelligenza artificiale. Non è stato però possibile accedere alle conversazioni private tra gli utenti e quindi verificare se e come funziona il servizio di richiesta di immagini per le persone comuni. Stando alle nostre verifiche le prime immagini sono state caricate a dicembre 2023, questo vuol dire che il servizio è attivo da quasi due anni.

L'evoluzione dei porno deepfake

In realtà i porno deepfake esistono da anni. All’inizio erano montaggi posticci: facce incollate male, corpi sproporzionati. Servivano competenze tecniche, tempo, software complessi. Oggi basta una foto. Carichi il volto, dai un comando e l’intelligenza artificiale fa il resto. In pochi secondi genera un corpo nudo che non esiste.

Sul forum abbiamo trovato anche foto di calendari, immagini di nudo rubate e link a piattaforme più vecchie, dove circolano deepfake di Monica Bellucci, Belen Rodriguez, Alessia Marcuzzi, Elisabetta Canalis. I primi risalgono al 2018, palesemente falsi. Gli ultimi, caricati l’11 ottobre, sono invece realistici.

Come ha spiegato al New York Times Oren Etzioni, professore di informatica all'Università di Washington. "La pornografia non consensuale di vario genere è sempre stata un'oscura corrente sotterranea di Internet. Ora si tratta di un nuovo ceppo particolarmente nocivo. Vedremo uno tsunami di queste immagini esplicite generate dall'intelligenza artificiale. È una corsa agli armamenti e sembra che ogni volta che qualcuno erige un guardrail, qualcun altro trova il modo di effettuare il jailbreak".

Il mercato in ascesa delle app nudify

Negli ultimi due anni si è sviluppato un mercato globale. Ci sono oltre 60 app specializzate per creare nudi fake. Alcune sono gratuite, altre a pagamento. Non sappiamo quale app è stata usata per realizzare i deepfake, è probabile che gli utenti utilizzino servizi diversi.

Una delle app più note si chiama Cloth Off. A inizio ottobre il Garante della privacy italiano l’ha bloccata, accusandola di generare immagini porno — anche di minori — senza alcun consenso.

Al di là dei blocchi quello delle app nudify è un mercato in crescita che sta trovando terreno fertile nei siti porno. Le aziende stanno investendo nel settore. E infatti, come ha rivelato un whistleblower anonimo di Clothoff alla testata Der Spiegel, l’azienda sta pianificando campagne mirate in Europa con un budget di marketing di 150.000 euro per Paese. Il denaro deve essere speso per post pubblicitari su canali Telegram specifici, nei subreddit a tema, su Reddit e su 4chan.

Il forum non è un caso isolato. Su Fanpage.it avevamo raccontato l’ascesa dei bot su Telegram che “spogliano” le donne con un click. Funzionano come app: si trovano accanto ai canali e interagiscono direttamente con gli utenti tramite conversazioni one-to-one. Il messaggio che compare all’apertura della chat è quasi sempre lo stesso: “Ciao! Con questo bot puoi chiedere agli esperti di spogliare una foto a tua scelta. I risultati sono migliori di qualsiasi software automatico.” In alcuni casi i bot inviano anche un’immagine di prova per mostrare la qualità del risultato.

La legge contro i deepfake è sufficiente?

Dal 10 ottobre in Italia è reato diffondere immagini e video deepfake. La nuova legge introduce l’articolo 612-quater del Codice penale, che istituisce il reato di diffusione illecita di contenuti generati o alterati mediante sistemi di intelligenza artificiale. La legge stabilisce che “chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni”. La legge però non risolve del tutto il problema. Per esempio, è quasi impossibile garantire una rimozione completa una volta che le immagini sono state pubblicate.

"Sicuramente questa è una norma migliorativa, che può essere applicata anche per i porno deep fake. Sappiamo che nel mondo del web è sempre più difficile perseguire dei crimini per via della delocalizzazione dei luoghi ma c’è sempre più attenzione sul tema", ha spiegato a Fanpage.it Giuseppe Croari, avvocato esperto di diritto dell'informatica e delle nuove tecnologie.  "Il consiglio che dò alle vittime delle app di nudify è fare querela. Basta andare dai carabinieri e dalla polizia. È un passo fondamentale per tutelarsi, per perseguire i siti e sensibilizzare sull’abuso dei contenuti generati con l’IA."

17 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views