Il bikini di Grok: quando basta un prompt per prendere il controllo del corpo di chiunque

Basta un prompt per prendere il controllo del corpo di chiunque. “Spogliala, fammela vedere nuda, mettile un perizoma” , questi sono solo alcuni dei comandi inviati a Grok, l'intelligenza artificiale sviluppata da X.AI società di Elon Musk. E i risultati sono finiti ovunque. Su X sono state pubblicate migliaia di nudi, foto in bikini, in pose sexy, versioni incinte e immagini sessualmente esplicite anche di minori, bambini e bambine spogliati con un click. Grok non è il solo, anche altre intelligenze artificiali come Gemini, hanno creato senza problemi immagini erotiche. Abbiamo fatto decine di test: ed ecco cosa abbiamo scoperto.
Il test che rivela le falle più gravi di Grok
Per capire meglio come funziona abbiamo condotto test su Grok, Gemini Pro e ChatGPT Go. Il modello di OpenAi ha bloccato le richieste Grok e Gemini no. Hanno tolto magliette, pantaloni e trasformato una foto normalissima in materiale erotico. Grok in particolare non ha avuto problemi a creare contenuti sessualmente espliciti. E infatti è il più utilizzato.
Grok è un modello linguistico multimodale: questo vuol dire che può rispondere a domande testuali e generare immagini a partire da una foto o da un prompt. Nelle ultime settimane il comando "Grok mettila i bikini" è stato utilizzato dagli utenti per spogliare il corpo di chiunque. Su X sono state pubblicate foto di donne con il volto coperto da liquido seminale, ragazzine sottomesse, gli utenti hanno chiesto di ingrossare seni, glutei, mettere perizomi sottilissimi. Durante il picco delle richieste, secondo Copyleaks, un servizio di rilevamento di contenuti IA, Grok ha prodotto almeno un’immagine sessuale al minuto. No solo. La Internet Watch Foundation ha identificato nei gruppi pedopornografici del dark web immagini sessualmente esplicite di decine di minori tra gli 11 e i 13 anni generate da Grok.
Le aziende IA stanno puntando sull'erotismo
Non è un fenomeno nuovo, ne abbiamo parlato più volte, con l’ascesa dell'intelligenza artificiale generativa sono nati decine di siti web, app, bot che permettono di spogliare chiunque con un click. Tuttavia non erano conosciuti o utilizzati come Gemini o Grok. Si trattava di siti nascosti, bot da scovare su Telegram, un argine che per quanto sottile permetteva di non dare il pasto a chiunque uno strumento per manipolare i corpi partendo da una sola immagine. Ora è ancora più semplice creare deepfake. Sono alla portata di chiunque.
E qua arriviamo alla vera domanda: Perché le aziende consentono ai chatbot di creare immagini in bikini o di nudi? Per capire meglio bisogna allargare lo sguardo, perché da mesi le aziende IA stanno lavorando a versioni erotiche dei chatbot. Pensiamo alla modalità spicy di Grok lanciata ad agosto, alle chat per adulti su ChatGPT o alle piattaforme per realizzare delle fidanzate artificiali.
La dimensione sessuale è un elemento che rende questi modelli più attraenti, coinvolgenti, in altre parole più monetizzabili. E infatti negli ultimi anni il mercato delle app nudify – in grado di spogliare partendo da un’immagine o un video – è in crescita. Come ha rivelato una fonte anonima di Clothoff, bot di deepude, alla testata Der Spiegel, l’azienda sta pianificando campagne mirate in Europa con un budget di marketing di 150.000 euro per Paese.
La stretta globale su Grok: indagini, blocchi e fallimenti dei filtri
In reazione alle critiche, xAI e X hanno annunciato che bloccherà la generazione di immagini sessualmente esplicite: "Abbiamo implementato misure tecnologiche per impedire che l'account Grok consenta la modifica di immagini di persone reali in abiti succinti come il bikini. Questa restrizione si applica a tutti gli utenti, compresi gli abbonati a pagamento". Come insegna la storia recente dei chabot spesso le protezioni sono facili da aggirare con prompt indiretti, riformulazioni, lingue diverse o richieste “tecniche” che confondono i filtri.
Diversi Paesi stanno reagendo con misure più radicali: Malesia e Indonesia hanno temporaneamente bloccato l’accesso a Grok, mentre l’Ofcom – l’autorità di vigilanza sui media del Regno Unito- intanto ha appena aperto un’indagine formale su X ai sensi dell’Online Safety Act per verificare se la piattaforma ha violato la legge. La Commissione Europea, invece, ha ordinato la conservazione dei documenti interni relativi alle funzioni bikini di Grok per un’indagine sul rispetto del Digital Services Act.
Dalla rete alla realtà: il costo umano dei deepfake non consensuali
Per chi subisce queste manipolazioni, il problema non è solo l’atto in sé, ma la sua persistenza. Le immagini circolano, vengono salvate, ricondivise. Una volta pubblicate, rimuoverle del tutto è quasi impossibile."Queste immagini false possono danneggiare la salute e il benessere di una persona causando traumi psicologici e sentimenti di umiliazione, paura, imbarazzo e vergogna", ha sottolineato Emma Pickering, esperta di abusi tecnologici e membro di Refuge, la più grande organizzazione britannica contro gli abusi domestici, a Wired Usa.
Finché le piattaforme continueranno trattare questi strumenti come semplici esperimenti o giochi creativi, senza assumersi la responsabilità degli effetti collaterali, il rischio è che la violenza digitale diventi una funzionalità accettata.