video suggerito
video suggerito

Il Garante blocca l’app Clothoff: permetteva di spogliare le foto di persone reali con l’IA

Il Garante della privacy ha emesso un provvedimento per bloccare il trattamento dei dati personali degli utenti italiani da parte della società titolare dell’app Clothoff: permetteva a chiunque di creare nudi deepfake, anche a contenuto pornografico, a partire da foto di persone reali.
6 CONDIVISIONI
Immagine

Il Garante per la protezione dei dati personali ha appena bloccato un'app disponibile anche in Italia, che attraverso l'IA generativa permetteva di "spogliare" le foto di persone reali.

L'app in questione si chiama Clothoff e poteva essere utilizzata da chiunque, anche gratuitamente, per creare deep nude, ovvero foto o video falsi che riproducono immagini di nudo e pornografiche di persone reali, minorenni inclusi.

La decisione del Garante

Con il provvedimento del primo ottobre 2025 il Garante "ha disposto, in via d’urgenza e con effetto immediato, la limitazione provvisoria del trattamento dei dati personali degli utenti italiani nei confronti di una società, con sede nelle Isole Vergini Britanniche, che gestisce l’app Clothoff".

La limitazione provvisoria al trattamento dei dati degli utenti italiani – si legge nel provvedimento – durerà il tempo necessario al Garante per lo svolgimento dell'istruttoria avviata nei confronti della società titolare di Clothoff.

Il Garante ha infatti dichiarato illecito il trattamento dei dati personali da parte della società "anche in relazione ai risvolti legati alla creazione di contenuti potenzialmente lesivi della reputazione del soggetto ritratto originariamente".

L'app in questione infatti permetteva a chiunque, compresi i minorenni, di creare foto o video di nudi, anche a contenuto pornografico, a partire da foto di persone reali, di qualsiasi età, senza nessuno strumento in grado di verificare se il soggetto ritratto avesse dato il proprio consenso. Inoltre, le immagini o i video generati tramite l'app non non hanno loghi o dislaimer visibili per esplicitare che sono state generate con l'IA.

Cosa sono i deep nude

I deep nude, ovvero foto o video falsi generati con l'intelligenza artificiale, rappresentano una delle più preoccupanti degenerazioni dell'uso dell'IA da quando quest'ultima è entrata nelle nostre vite, finendo alla portata di tutti.

Per capire le possibili conseguenze che app di questo genere possono avere sulla vita di chiunque non serve andare troppo lontano. Solo qualche settimana fa è diventato virale il video di una ragazza di 19 anni di Foggia che ha denunciato di essere stata vittima di revenge porn: una sua foto, manipolata probabilmente con l'intelligenza artificiale, è iniziata a circolare ovunque, trasformando la sua vita in un incubo, anche se – come lei stessa ha raccontatoin quella foto di suo c'era solo il volto, il corpo era stato modificato e denudato artificiosamente.

Prima di lei moltissime altre donne hanno subito violenze e violazioni di questo tipo: quasi due anni fa ormai, il caso dei deepfake di Taylor Swift aveva già mostrato quanto potesse essere difficile bloccare la circolazione di queste immagini.

Rischi per i diritti e le libertà

Su questi rischi, da cui non è al sicuro nessuno, insiste lo stesso Garante nel motivare la sua decisione:

"Il blocco del Garante, che comunque ha avviato un’attività di indagine finalizzata a contrastare tutte le app di nudificazione, si è reso necessario a causa degli elevati rischi che tali servizi possono comportare per i diritti e le libertà fondamentali, con particolare riguardo alla tutela della dignità della persona, ai diritti di riservatezza e di protezione dati personali dei soggetti coinvolti in queste tipologie di trattamenti, specie se coinvolgono ragazzi minorenni".

6 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views