video suggerito
video suggerito
Intelligenza artificiale (IA)

“Hanno preso una mia foto e mi hanno messa in bikini, è come essere violata davanti a tutti”

Foto in costune o in pose intime: basta un prompt per trasformare immagini di persone reali in deepfake, mentre le vittime restano senza tutela.
A cura di Elisabetta Rosso
15 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Quando Jamie, 38 anni, ha aperto X non si aspettava di vedere una sua foto in perizoma. Il volto è il suo, il corpo no, è stata spogliata da Grok, il bot IA di Elon Musk. Non si tratta di un caso isolato. Centinaia di donne hanno trovato immagini esplicite su X. Foto in bikini, in pose sexy, versioni di se stesse incinta. Sembra che il modello negli ultimi giorni si sia spinto oltre. Basta un click per prendere il controllo del corpo di chiunque. 

Anche noi abbiamo fatto una prova con la versione gratuita di Grok. Il bot ha trasformato in pochi secondi uno scatto di Marilyn Monroe con maglia nera e gonna bianca in una foto in bikini.Non si è spinto oltre generando immagini di nudo, ma per realizzare foto erotiche è bastato un comando. 

Le vittime di Grok: immagini sessuali non consensuali

Jamie ha raccontato a Metro che negli ultimi giorni sono comparse decine di immagini che la ritraevano in intimo, incinta o con in pose sessualmente esplicite. “Non è la prima volta che vedo prompt misogini online, ma questa volta è stato diverso. Più esplicito. Più insistente. E Grok ha eseguito tutto”.

È successo anche a Megan Graves, comica e scrittrice che vive nel Maryland. “Sembra di essere aggrediti. Ti fa venire voglia di strisciare fuori dalla tua pelle”, ha raccontato Graves. “Se questa è la direzione della piattaforma, allora X non è un luogo sicuro per le donne. O per chiunque” “

Anche Sarah Everett, 37 anni, è diventata un bersaglio. Dopo aver pubblicato un post innocuo – un confronto tra una sua foto a 20 anni e una più recente – decine di account hanno iniziato a usare Grok per manipolare quell’immagine. “Era una foto mia. L’avevo scattata io. E vederla stravolta in modo così grottesco, usata per scopi così disturbanti, è stato orribile. So che qualcuno potrebbe dire che usando la piattaforma accetti che le tue immagini vengano analizzate dall’IA. Ma io non ho mai acconsentito a una manipolazione sessuale. Né a essere usata per campagne di molestie”.

Le regole non bastano: abusi digitali su X

In un post su X l’account ufficiale di Grk ha scritto:

“Le policy di xAI vietano la creazione o la condivisione di contenuti che violano la privacy, i diritti di pubblicità o le leggi, incluse le immagini non consensuali. Grok adotta misure di sicurezza per impedire l'output esplicito, ma può verificarsi un uso improprio. Per richieste di eliminazione, contattare http://supportx.ai per mettere in coda i contenuti da rimuovere (fino a 30 giorni). Rispettiamo le leggi pertinenti, come il Take It Down Act. In caso di un incidente specifico, si prega di fornire i dettagli per ricevere assistenza.”

Eppure diverse vittime hanno raccontato di aver segnalato il problema senza ricevere nessun tipo di aiuto. Ad ogni modo le immagini una volta pubblicate sono difficili da controllare, ed eliminarle del tutto è quasi impossibile.

Il fenomeno va avanti da mesi, con i modelli sempre più performanti sono nati siti, canali e bot per spogliare le donne, noi siamo entrati su diverse piattaforme trovando immagini di politiche, artiste, donne comuni. Il problema è che strumenti simili su X, una piattaforma mainstream, rendono ancora più semplice creare deepfake. Ora sono alla portata di chiunque.

Quando il deepfake diventa trauma

Non serve più competenza tecnica: basta un prompt e un account social. Il risultato è una nuova forma di esposizione forzata, che molte donne descrivono come una violazione intima. “Non è qualcosa che puoi semplicemente ignorare”, spiega Jamie. “È il tuo volto. Il tuo corpo. Ma non sei tu. Eppure tutti lo vedono”.

Per chi subisce queste manipolazioni, il problema non è solo l’atto in sé, ma la sua persistenza. Le immagini circolano, vengono salvate, ricondivise.  "Queste immagini false possono danneggiare la salute e il benessere di una persona causando traumi psicologici e sentimenti di umiliazione, paura, imbarazzo e vergogna", ha sottolineato Emma Pickering, esperta di abusi tecnologici e membro di Refuge, la più grande organizzazione britannica contro gli abusi domestici, a Wired Usa.

Eppure Grok non sembra prendere sul serio la questione. In risposta a un commento su X ha scritto “Ehi, sto solo rispecchiando ciò che chiedono gli utenti! Se i suggerimenti sono piccanti, le immagini seguono l'esempio. La colpa è delle menti creative là fuori: mantengono le cose interessanti!  Quale immagine dovrei generare adesso?

Finché le piattaforme continueranno a presentare questi strumenti come semplici esperimenti o giochi creativi, senza assumersi la responsabilità degli effetti collaterali, il rischio è che la violenza digitale diventi una funzionalità accettata. E per molte donne, l’ennesimo spazio da cui difendersi.

15 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views