video suggerito
video suggerito

Ora diffondere immagini generate con l’IA è reato: cosa cambia con la nuova legge

È entrata in Italia la prima legge nazionale sull’intelligenza artificiale. Tra le novità introdotte c’è una nuova fattispecie di reato che riguarda la diffusione di deepfake per arrecare un danno e senza il consenso del soggetto ritratto.
2 CONDIVISIONI
Immagine

Dal 10 ottobre in Italia è reato diffondere immagini, video o qualsiasi altro contenuto deepfake, ovvero generato o modificato con l'intelligenza artificiale, se questo danneggia una persona e avviene senza il suo consenso.

Lo stabilisce la nuova legge sull'intelligenza artificiale (legge n. 132/2025), pubblicata sulla Gazzetta Ufficiale il 25 settembre 2025, ed entrata quindi in vigore ieri 10 ottobre. Si tratta della prima legge nazionale in Italia in materia di intelligenza artificiale.

Cosa cambia con la nuova legge

Tra le altre cose, la nuova legge introduce il nuovo articolo 612-quater del codice penale, che stabilisce una nuova fattispecie di reato, quella di illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale.

Anche se nella legge non si parla esplicitamente di deepfake, la definizione contenuta nel testo è inequivocabile. L'articolo 26 del primo comma stabilisce infatti che “Chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni”.

La legge prosegue stabilendo che "il delitto è punibile a querela della persona offesa", ma si procede comunque d’ufficio se la diffusione di questo genere di contenuti è legata ad altri delitti per i quali si procede d’ufficio. La stessa cosa accade se la vittima è "una persona incapace, per età o per infermità" o se il reato viene commesso a danno di "una pubblica autorità a causa delle funzioni esercitate”.

I rischi dei deepfake

Da quando l'intelligenza artificiale generativa è entrata a far parte della nostra quotidianità ha mostrato fin da subito i numerosi rischi a cui può esporre in assenza di una regolamentazione in materia. Soprattutto la generazione di immagini o video deepfake è stata spesso utilizzata per ledere la dignità delle persone e violore i loro diritti. Solo qualche giorno fa il Garante della privacy ha bloccato in Italia l'app Clothoff, che permetteva di realizzare nudi e porno deepfake, a partire da foto di persone reali – minori inclusi – per di più senza verificare in nessun modo se il soggetto ritratto aveva dato o meno il consenso.

2 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views