video suggerito
video suggerito
Opinioni
Intelligenza artificiale (IA)

Ho visto le foto di Francesca Barra, se pensate che non sia un abuso allora non avete capito il problema

Basta un click per spogliare una donna, con l’intelligenza artificiale siamo di fronte a una nuova forma di abuso su vecchio leitmotiv: il corpo della donna. Storicamente è stato un campo di battaglia, e i deepfake sono l’estensione digitale di una cultura maschilista che ignora il consenso.
A cura di Elisabetta Rosso
9 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Da mesi guardo corpi di donne nudi. Scorro siti, app, social, che sfornano immagini porno false. Ragazze con bocche aperte, che mostrano il seno e lanciano sguardi accattivanti alla telecamera. Lì, dentro quei tritacarne ad apprendimento automatico, ho visto il corpo delle donne piegato al desiderio di uomini. E per farlo è stato sufficiente un click. 

L’ultimo caso l’ho raccontato poche settimane fa su Fanpage.it, si tratta di un sito che colleziona immagini porno create con l’intelligenza artificiale – si carica una foto, si dà un comando e l’IA genera un nudo artificiale. Ci sono entrata e ho trovato foto di attrici, politiche e artiste italiane. Ma come dicevo, è solo l’ultimo caso.

Non siamo di fronte a un “fenomeno tecnologico", e chi guarda da questa prospettiva ha uno sguardo miope. I deepfake infatti sono l’estensione digitale di una cultura maschilista che ignora il consenso. Il corpo delle donne, d'altronde, è da sempre un terreno su cui si misura il potere. I nudi fake sono solo l’ultima versione, più sofisticata.

Ogni immagine di nudo creata dall’intelligenza artificiale normalizza la disponibilità del corpo femminile e lo trasforma in materiale da consumo. La tecnologia non è neutrale, riflette — e amplifica — i modelli culturali maschilisti già esistenti.

Che poi, il peccato è originale. Da un lato l’algoritmo è figlio di uomini, sono pochissime le donne che hanno lavorato e lavorano nell’ambito tech. Dall'altro i modelli IA sono stati addestrati raschiando il web, e sul web c'è di tutto, anche tonnellate di foto di donne nude e sessualizzate. Non dimentichiamo che una delle prime immagini di ARPANET, il predecessore di internet, è stata la foto della modella Lena Forsen nuda pubblicata su Playboy.

Ora, servono leggi, servono responsabili da additare, ma serve soprattutto tenere il punto, su due questioni. La prima: siamo di fronte a una violenza. C’è il rischio che queste immagini finte vengano declassate ad abuso di serie B. Non deve essere così. E qui rubo una frase a Catherine MacKinnon, teorica femminista: “La violenza sessuale è violenza sul corpo, ma anche violenza sulla volontà, sulla libertà di decidere sul proprio corpo.”

La seconda: siamo di fronte a una questione di genere. E, a chi prova a tenere separate donne e deepfake chiedo: come mai allora la tecnologia viene utilizzata per spogliare solo, o per lo meno la maggior parte delle volte, le donne? Stando ai dati sono il 96%. Non solo. I deepfake sono nati con la pornografia. I primi scoperti su Reddit nel 2017 erano proprio immagini di donne nude, in pose sessualmente esplicite. Quindi, sì, è una violenza di genere. I deepfake sono solo l'ultimo capitolo di una storia lunghissima. La storia di un sistema che continua, in tutti i modi possibili, a controllare il corpo delle donne.

9 CONDIVISIONI
Immagine
Nata ad Asti nel 1996, sono giornalista e musicista. Scrivo di intelligenza artificiale, crypto, e cyber security per la sezione Innovazione di Fanpage. Ho collaborato con La Stampa, Tgcom24, Rolling Stone e Linkiesta. A giugno e agosto 2022 sono stata in Ucraina per raccontare le storie dei profughi di guerra.
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views