Ora diffondere immagini generate con l’IA è reato: cosa cambia con la nuova legge

Dal 10 ottobre in Italia è reato diffondere immagini, video o qualsiasi altro contenuto deepfake, ovvero generato o modificato con l'intelligenza artificiale, se questo danneggia una persona e avviene senza il suo consenso.
Lo stabilisce la nuova legge sull'intelligenza artificiale (legge n. 132/2025), pubblicata sulla Gazzetta Ufficiale il 25 settembre 2025, ed entrata quindi in vigore ieri 10 ottobre. Si tratta della prima legge nazionale in Italia in materia di intelligenza artificiale.
Cosa cambia con la nuova legge
Tra le altre cose, la nuova legge introduce il nuovo articolo 612-quater del codice penale, che stabilisce una nuova fattispecie di reato, quella di illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale.
Anche se nella legge non si parla esplicitamente di deepfake, la definizione contenuta nel testo è inequivocabile. L'articolo 26 del primo comma stabilisce infatti che “Chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni”.
La legge prosegue stabilendo che "il delitto è punibile a querela della persona offesa", ma si procede comunque d’ufficio se la diffusione di questo genere di contenuti è legata ad altri delitti per i quali si procede d’ufficio. La stessa cosa accade se la vittima è "una persona incapace, per età o per infermità" o se il reato viene commesso a danno di "una pubblica autorità a causa delle funzioni esercitate”.
I rischi dei deepfake
Da quando l'intelligenza artificiale generativa è entrata a far parte della nostra quotidianità ha mostrato fin da subito i numerosi rischi a cui può esporre in assenza di una regolamentazione in materia. Soprattutto la generazione di immagini o video deepfake è stata spesso utilizzata per ledere la dignità delle persone e violore i loro diritti. Solo qualche giorno fa il Garante della privacy ha bloccato in Italia l'app Clothoff, che permetteva di realizzare nudi e porno deepfake, a partire da foto di persone reali – minori inclusi – per di più senza verificare in nessun modo se il soggetto ritratto aveva dato o meno il consenso.