Siamo entrati nel forum dove le donne vengono umiliate, anche con l’IA: “Tributiamo mia sorella?”

Pagina a sfondo scuro, scritte fluorescenti e liste infinite di video in anteprima. Alcuni titoli contengono nomi di attrici e influencer italiane, altre di persone comuni. In cima alla pagina c’è scritto “Cum Tribute Italia”. I tributi sono video di uomini che si masturbano ed eiaculano su foto di donne, possono essere stampate o su schermi di iPad o smartphone, il formato è sempre lo stesso: sporcare l’immagine di una donna, poi condividerla e vantarsene. Il fenomeno esiste da anni, la pornografia dell’odio è vecchia quanto Internet, ora però c’è l’intelligenza artificiale che rende tutto più semplice, realistico e umiliante.
Prima infatti le foto dei cum tribute erano rubate dai social, ora con i software IA è possibile spogliare una donna con un click, creando i cosiddetti deepnude che vanno ad alimentare il mercato dei Cum Tribute. Nel sito dove siamo entrati abbiamo trovato foto e video di donne italiane. Ci sono immagini di attrici, politiche, artiste, ma anche foto di influencer meno seguite e richieste su donne comuni: "Questi sono i video che sogno di vedere sulla mia collega. La sbo**iamo?", si legge tra i commenti. "La voglio sulla faccia di mia sorella". Gli utenti chiedono a intermittenza nuove donne da "tributare" scrivendo nomi e cognomi tra i commenti.
Quello che abbiamo visto dentro non è una semplice deriva pornografica, ma una forma di violenza digitale organizzata. Un tempo serviva rubare le foto, oggi basta un algoritmo: un click, e l’intelligenza artificiale spoglia chiunque, trasformando un volto qualunque in un corpo nudo pronto per l’umiliazione.
Cosa abbiamo visto dentro il forum dei tributi
La sezione del forum in cui siamo stati è all’interno di una piattaforma pornografica. Qui gli utenti non solo condividono i propri video, ma hanno creato una community: commentano, chiedono nuovi soggetti da “tributare”, scambiano link e suggerimenti per trovare "materiale". Alcune sono foto rubate dai social, la maggior parte però sono immagini modificate con software deepnude. Abbiamo trovato per esempio video TikTok dove l'utente, vestita nella clip originale, compare invece nuda sul forum.
Alcune clip hanno 80.000 visualizzazioni. Tra le categorie ci sono "italiane", "teen" "foto Instagram". Sulla pagina vengono sponsorizzati anche bot per i deepnude. "Crea anche tu il video con l'IA della tua vicina, amica o chiunque desideri", c'è scritto, in allegato un link che rimanda a un software.
Nei commenti alcuni descrivono cosa vorrebbero fare alle vittime, altri recensiscono i video. "Bello, voglio ancora vederla umiliata". "Ottima fattura, tributiamo anche lei?". "Come faccio a fare questo con mia cugina?". Sono solo alcuni dei commenti che abbiamo letto. Il forum è un catalogo dell’umiliazione, dove la violenza digitale viene celebrata come gioco di gruppo, e la donna ritratta diventa oggetto di desiderio e dominio.
Pornografia dell’odio 2.0: come l’IA amplifica la violenza digitale
I Cum tribute sono presenti su diverse piattaforme, anche siti mainstream come Pornhub hanno una sezione dedicata. Ora però l'IA – come abbiamo visto nel forum in cui siamo entrati – permette di creare immagini su misura andando ad alimentare il fenomeno. Un conto è farlo su pornostar consenzienti, un altro su donne inconsapevoli, ancora peggio se le vittime vengono spogliate e sessualizzate con un click.
Gli esperti di cultura digitale chiamano questo fenomeno “pornografia dell’odio”. La prima ondata arrivò nei primi anni 2000, con i forum per condividere le foto di ex fidanzate. Poi i siti di “revenge porn”, e ora l’era dell’IA, che ha aperto un nuovo capitolo: quello dei deepfake non consensuali.
Avevamo già raccontato su Fanpage.it i forum misogeni dove le donne vengono spogliate con un click. La pagina Cum Tribute segue questa linea. Sfrutta la tecnologia per perpetrare una violenza radicata sul web. Con l’intelligenza artificiale il corpo diventa materia prima, manipolabile all’infinito, pronta per essere condivisa e “tributato” senza limiti. Le vittime non lo sanno, ma le loro immagini vengono consumate, commentate e rivendute come se fossero un prodotto. La tecnologia non ha creato il problema, lo ha solo reso più rapido, più accessibile e più brutale.