Il caso delle modelle bambine di Epstein: non è tutto vero quello che state leggendo

Una ragazzina bionda sorride in camera abbracciata a Jeffrey Epstein, "questa sono io otto anni fa, scrive. Un'altra è sdraiata su un letto sfatto accanto a lui. C'è anche una modella in posa con le gambe accavallate sul suo jet privato e una bambina seduta sulla scrivania in mogano del finanziere. Nessuna di loro però ha mai incontrato Epstein. Sono tutte finte, create con l'intelligenza artificiale. Ci sono profili con storie create ad hoc, per esempio una ragazza che piange perché gli amici l'hanno trovata negli Epstein Files, altre semplicemente pubblicano foto e video, spesso con una vena erotica. Alcuni contenuti hanno raggiunto 10 milioni di visualizzazioni. Ora, che queste immagini siano eticamente discutibili è evidente. Stiamo parlando di un criminale, condannato per abusi sessuali e traffico di minorenni. Quello che è più interessante capire è però il meccanismo che c'è dietro a questo nuovo mercato dell'IA. Perché dei creator stanno realizzando modelle artificiali in pose intime con Epstein?
Per capire meglio dobbiamo recuperare una vecchia legge dei social: vince chi divide. I contenuti controversi, scioccanti o estremi tendono a essere premiati dagli algoritmi. Le piattaforme come Facebook, Instagram o TikTok sono progettate per massimizzare il tempo di permanenza e l’interazione, più un contenuto provoca reazioni forti – indignazione, sorpresa, rabbia, entusiasmo – più genera commenti, condivisioni, mi piace, follower. Di conseguenza, più soldi.
Dalla provocazione alla monetizzazione: il caso delle modelle artificiali
Le modelle di Epstein – segnalate sui social da Mattia Marangon, divulgatore – non sono un caso isolato. Su Fanpage.it, infatti, avevamo già parlato di modelle artificiali con disabilità. Donne sexy con gambe o braccia mutilate, gemelle siamesi i bikini e ragazze fake con sindrome di down. Il principio è lo stesso.
Come per le modelle di Epstein, i profili Instagram e TikTok rappresentano la vetrina, costruita per attirare attenzione e generare engagement attraverso immagini scioccanti o fuori dall’ordinario. La combinazione tra sessualizzazione e elementi percepiti come “tabù” o controversi aumenta la curiosità, spinge le persone a commentare e condividere, e quindi amplifica la visibilità del profilo.
Da lì, attraverso il link in bio, il traffico viene reindirizzato su canali erotici su Telegram, Fanvue e OnlyFans, dove vengono venduti contenuti a pagamento. In questo schema, i social mainstream funzionano come strumento di marketing: l’obiettivo di chi crea questi profili non è tanto costruire una community, quanto aumentare la visibilità delle modelle artificiali per trasformare l’attenzione in abbonamenti e quindi in guadagni.
Social come Instagram, TikTok o Facebook vietano formalmente contenuti sessualmente espliciti o ingannevoli, ma il sistema delle immagini soft e dei rimandi esterni permette di aggirare i controlli. Questo crea una zona grigia in cui la responsabilità è frammentata: i social generano traffico e visibilità, mentre la parte più esplicita e redditizia si sposta su piattaforme parallele.
Quando lo scandalo diventa strategia
Ci troviamo di fronte a un quadro complesso. Il primo problema è la confusione tra realtà e finzione. Creare immagini false che ritraggono Epstein insieme a ragazze sexy e felici – per quanto generate con l’intelligenza artificiale – contribuisce ad alimentare un immaginario ambiguo, in cui fatti giudiziari documentati si mescolano a contenuti inventati. Questo cortocircuito visivo rischia di inquinare la percezione pubblica, soprattutto per chi intercetta le immagini fuori contesto o senza capire che si tratta di creazioni artificiali.
Non solo, riproporre in chiave glamour la figura di un criminale condannato per abusi sessuali e traffico di minorenni rischia di ridurre il caso a una dimensione voyeuristica e sensazionalistica. Come spiega Marangon il rischio è di normalizzare questi contenuti attraverso una sovraesposizione continua. Più queste immagini circolano, più diventano parte del flusso ordinario dei contenuti, finendo per banalizzare dinamiche che hanno avuto conseguenze gravissime.
Infine ci sono le piattaforme, complici del processo. Non bloccano i contenuti fake creati con l'IA – anche se non sono segnalati – e spingono i contenuti controversi. I creator usano i video e le immagini provocatorie perché sanno che hanno maggiori probabilità di emergere nel flusso. Nel caso delle modelle artificiali di Jeffrey Epstein, l’elemento scandalistico diventa parte integrante della strategia: una leva consapevole per attivare l’algoritmo.