Carlotta Perego vittima di una truffa: “Mi distrugge pensarci, il mio volto rubato con l’IA”

Carlotta Perego, alias Cucina Botanica, è una delle food blogger più note in Italia. Il suo profilo Instagram è seguito da 1,4 milioni di persone e i suoi contenuti sulle ricette e l'alimentazione vegana vengono visti ogni giorno da migliaia di persone.
Ed è proprio su Instagram, in alcune storie pubblicate nei giorni scorsi sul suo profilo, che Carlotta ha raccontato di essere stata vittima di un furto di immagine. Il suo volto è stato infatti utilizzato, senza il suo consenso, in un video deepfake fatto con l'intelligenza artificiale in cui si sponsorizzano integratori e prodotti dimagranti.
Il problema dei video deepfake
Purtroppo, come abbiamo visto in molte altre truffe di questo tipo, i programmi che generano video deepfake, anche a partire da foto di persone reali, sono diventati così accurati da permettere ai truffatori di rubare l'immagine di personaggi noti (ma potrebbero farlo con chiunque) per sfruttarla a loro piacimento. In passato abbiamo visto video con il finto volto di Fabio Fazio, Chiara Ferragni e perfino quello di Sergio Mattarella sponsorizzare fantomatiche piattaforme di trading online che farebbero arricchire chiunque.
Questa volta è successo con Carlotta Perego. La creator ha raggiunto infatti ormai una notorietà che supera i confini dei social. Ha pubblicato diversi libri di cucina di successo, con centinaia di migliaia di copie vendute e recentemente ha anche avuto un programma tv tutto suo. Insomma il suo volto è ormai riconoscibile, soprattutto tra gli appassionati di cucina e cibo. E i truffatori che si servono di questo tipo di escamotage ne erano chiaramente consapevoli.
Le parole di Carlotta Perego
Nelle sue storie Carlotta Perego ha spiegato come vedersi in un video di cui era totalmente all'oscuro e per di più scoprire che la sua immagine era stata rubata per sponsorizzare prodotti che negano completamente il suo pensiero e il suo valore l'ha profondamente scossa. Soprattutto – ha spiegato – al pensiero che qualcuno potesse credere che quella nel video fosse davvero lei e non una creazione dell'IA.
"Nel video c‘è la mia faccia che si muove, io che dico delle cose, e fa veramente paura che con l'AI si possano fare contenuti rubando l'immagine di qualcuno e ciaone – ha scritto Carlotta in una delle storie – Magari la maggior parte delle persone se ne accorge, ma il fatto che qualcuno ci possa cascare mi distrugge". Chi è esperto di IA infatti riesce a riconoscere che si tratta di un deepfake, ma una persona digiuna o comunque non preparata su questo tema, potrebbe facilmente cadere nella trappola.
Per questo motivo Carlotta ha deciso di denunciare l'accaduto, come spiega in una storia pubblicata ieri: "Oggi ho fatto la denuncia per il furto della mia immagine nel video fatto con l'AI che vi dicevo ieri. Al di là dell'esito, penso sia importantissimo non lasciare passare queste cose in silenzio".
Perché fare un video di questo tipo è un reato
D'altronde quanto le è accaduto è a tutti gli effetti un reato. Dal 10 ottobre 2025 in Italia è stata infatti introdotta una nuova fattispecie di reato "Illecita diffusione di contenuti generati o alterati con IA", riconosciuta espressamente dal Codice Penale (articolo 612-quater). Questo stabilisce infatti che fare contenuti di questo tipo senza il consenso della persona a cui appartiene il volto o la voce è a tutti gli effetti un reato punibile con la reclusione.
"Chiunque cagiona – si legge nel codice penale – un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l'impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni".