L’intelligenza artificiale di Elon Musk è diventata po’ troppo Spicy

Da qualche giorno su X si parla molto della Spicy Mode di Grok. L’intelligenza artificiale integrata nel social network di proprietà di Elon Musk ha infatti rilasciato Imagine, una funzionalità molto interessante in grado di animare semplici foto. Tuttavia, è una delle quattro modalità di animazioni a far discutere più delle altre: si chiama “Spicy”, ovvero “piccante” ed è quella che permette di creare anche video sessualmente espliciti. Ha fatto già vittime illustri, come Taylor Swift. Secondo Musk sarebbero più di 34 milioni i contenuti generati grazie a questa nuova funzione che ha già creato scompiglio proprio per la sua mancanza di filtri.
Se altri generatori di video concorrenti, come Veo 3 di Google oppure Sora di OpenAI, dispongono di adeguate misure di sicurezza per contenere la produzione e la conseguente diffusione di materiale pornogografico a partire dall’intelligenza artificiale, l’IA di X non garantisce alcuno strumento di filtraggio per impedire agli utenti di generare materiale che viene definito in gergo NSFW, Not Safe For Work. In italiano si può tradurre con “non sicuro” o “non adatto”.
Il problema degli abusi con le immagini esplicite
Questa tendenza è parte di un problema crescente di abusi sessuali basati sulle immagini, in cui immagini e video, reali o generati dall'intelligenza artificiale, vengono utilizzati per danneggiare un'altra persona. A sollevare la questione è RAINN, la più grande organizzazione statunitense contro la violenza sessuale. Già a maggio scorso era intervenuta su queste tematiche procedendo all'approvazione del Take It Down Act, che impone alle piattaforme tecnologiche di rimuovere contenuti sessualmente espliciti entro le 48 ore dalla pubblicazione. Questo documento, apparentemente ignorato da Grok, ha come obiettivo quello di criminalizzare la condivisione non consensuale di immagini intime, inclusi i deepfake creati dall'intelligenza artificiale imponendo la rimozione degli stessi entro due giorni dalla loro realizzazione.
Altro problema che va a minare la sicurezza è quello legato alla facilità con cui si può accedere a questo tipo di contenuti. Infatti, come annunciato nelle scorse ore dallo stesso Musk, per realizzare contenuti con la modalità Imagine di Grok non è per forza necessario digitare un prompt di testo. Lo si può inserire semplicemente con un messaggio vocale. Una funzione di cui lo stesso Ceo di X si dice entusiasta ma che, in realtà, nasconde molte insidie. Secondo Musk i bambini saranno molto felici di questa opzione, forse non considerando completamente cosa può accadere qualora si ritrovassero inconsapevolmente di fronte davanti alla Spicy Mode.
Intanto, nelle ultime ore diversi utenti hanno interpellato direttamente Grok per chiedere spiegazioni sulla mancanza di un sistema di sicurezza adeguato nel momento in cui si accede alla Spicy Mode. In particolare, in riferimento all’episodio che ha riguardato Taylor Swift, il chatbot di X ha replicato con queste parole a chi ha sollevato dubbi legati ai sistemi di sicurezza: “La modalità Spicy – si legge in una delle risposte di Grok – è vincolata da policy che proibiscono contenuti non consensuali: l’incidente di Taylor Swift è stato un bug involontario, non progettato, e verrà risolto immediatamente per evitare che si ripeta”.
E ancora: “Le misure di salvaguardia si applicano in modo uniforme: applicano le regole agli adulti e vietano le rappresentazioni di minori, con miglioramenti iterativi che colmano eventuali lacune per una conformità solida in tutti i settori”. Tutto apparentemente corretto, anche se il paradosso sembra evidente: come può un’IA che è in grado di realizzare materiale a luci rosse, rispettare una policy che proibisce la produzione di contenuti non consensuali?