
Da mesi guardo corpi di donne nudi. Scorro siti, app, social, che sfornano immagini porno false. Ragazze con bocche aperte, che mostrano il seno e lanciano sguardi accattivanti alla telecamera. Lì, dentro quei tritacarne ad apprendimento automatico, ho visto il corpo delle donne piegato al desiderio di uomini. E per farlo è stato sufficiente un click.
L’ultimo caso l’ho raccontato poche settimane fa su Fanpage.it, si tratta di un sito che colleziona immagini porno create con l’intelligenza artificiale – si carica una foto, si dà un comando e l’IA genera un nudo artificiale. Ci sono entrata e ho trovato foto di attrici, politiche e artiste italiane. Ma come dicevo, è solo l’ultimo caso.
Non siamo di fronte a un “fenomeno tecnologico", e chi guarda da questa prospettiva ha uno sguardo miope. I deepfake infatti sono l’estensione digitale di una cultura maschilista che ignora il consenso. Il corpo delle donne, d'altronde, è da sempre un terreno su cui si misura il potere. I nudi fake sono solo l’ultima versione, più sofisticata.
Ogni immagine di nudo creata dall’intelligenza artificiale normalizza la disponibilità del corpo femminile e lo trasforma in materiale da consumo. La tecnologia non è neutrale, riflette — e amplifica — i modelli culturali maschilisti già esistenti.
Che poi, il peccato è originale. Da un lato l’algoritmo è figlio di uomini, sono pochissime le donne che hanno lavorato e lavorano nell’ambito tech. Dall'altro i modelli IA sono stati addestrati raschiando il web, e sul web c'è di tutto, anche tonnellate di foto di donne nude e sessualizzate. Non dimentichiamo che una delle prime immagini di ARPANET, il predecessore di internet, è stata la foto della modella Lena Forsen nuda pubblicata su Playboy.
Ora, servono leggi, servono responsabili da additare, ma serve soprattutto tenere il punto, su due questioni. La prima: siamo di fronte a una violenza. C’è il rischio che queste immagini finte vengano declassate ad abuso di serie B. Non deve essere così. E qui rubo una frase a Catherine MacKinnon, teorica femminista: “La violenza sessuale è violenza sul corpo, ma anche violenza sulla volontà, sulla libertà di decidere sul proprio corpo.”
La seconda: siamo di fronte a una questione di genere. E, a chi prova a tenere separate donne e deepfake chiedo: come mai allora la tecnologia viene utilizzata per spogliare solo, o per lo meno la maggior parte delle volte, le donne? Stando ai dati sono il 96%. Non solo. I deepfake sono nati con la pornografia. I primi scoperti su Reddit nel 2017 erano proprio immagini di donne nude, in pose sessualmente esplicite. Quindi, sì, è una violenza di genere. I deepfake sono solo l'ultimo capitolo di una storia lunghissima. La storia di un sistema che continua, in tutti i modi possibili, a controllare il corpo delle donne.