38 CONDIVISIONI
video suggerito
video suggerito
Intelligenza artificiale (IA)

Negli Stati Uniti usare l’intelligenza artificiale per una fake news sta per diventare un reato

Il Senato del Minnesota ha proposto un disegno di legge che vieta l’uso dell’intelligenza artificiale per creare foto di persone reali in contesti compromettenti. Le norme riguardano anche l’applicazione dell’intelligenza artificiale per la creazione di porno deepfake.
A cura di Valerio Berra
38 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Negli Stati Uniti l’opinione pubblica si è accorta delle potenzialità dell’intelligenza artificiale applicata alla fotografia almeno due volte: la prima è quando per un certo periodo sono diventate virali le immagini di Donald Trump arrestato dall’FBI. Una circostanza che non si è mai verificata, nonostante le condanne recenti. La seconda è quando Papa Francesco ha cominciato a invadere gli schermi degli smartphone con piumini oversize e pose da gangster con collane d’oro e tatuaggi. Anche qui nulla da fare, il Pontefice non ha trasformato Città del Vaticano in una trap house.

Al netto di questi esempi, certo più clamorosi, l’intelligenza artificiale ha reso molto più semplice la vita a chi vuole creare fake news utilizzando le immagini. Si poteva fare anche prima, certo. Eppure per creare qualcosa di credibile bisognava almeno avere un po’ di dimestichezza con Photoshop. Ora per costruire un’immagine falsa basta scegliere le parole giuste per il prompt, la striscia di comandi da inviare all’intelligenza artificiale. Qui vi abbiamo raccontato quanto sia semplice questa operazione. Ora però lo Stato del Minnesota, negli Stati Uniti, ha deciso di rendere un reato l’utilizzo dell’intelligenza artificiale per la creazione di fake news.

La legge contro i deepfake

Il disegno di legge è stato presentato dal Senato del Minnesota è l’obiettivo è colpire tutti quelli che usano l’intelligenza artificiale stravolgendo l’immagine di persone reali. Questo riguarda sia le fake news che i porno deepfake, quelli creati applicando i volti di persone non consenzienti a corpi di attori hard. Un’altra declinazione di questa pratica consiste nel creare immagini di nudo partendo da foto di persone vestite, come abbiamo spiegato con il caso di Bikini Off.

Nelle prime versioni di questo disegno di legge erano presenti delle eccezioni in casi in cui l’immagine di nudo veniva creata solo per scopi di parodia ma con l’ultima versione anche questa variante è stata eliminata. Se tutto procede senza in toppi, questa proposta dovrebbe diventare legge in tutto il Paese a fine maggio, trasformando così il Minnesota nel primo Stato degli Stati Uniti a dotarsi di una serie di norme su questo tema.

38 CONDIVISIONI
372 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views