125 CONDIVISIONI
video suggerito
video suggerito
Intelligenza artificiale (IA)

Due studenti sono stati arrestati perché hanno usato l’IA per svestire i loro compagni di classe

I due ragazzi avevano 13 e 14 anni. Secondo le accuse della polizia avrebbe creato e diffuso immagini pornografiche dei loro compagni di scuola sviluppate dall’intelligenza artificiale. Gli agenti hanno scelto di non diffondere il nome del software utilizzato.
A cura di Valerio Berra
125 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Non è il primo caso di cui sentiamo parlare, non sarà l’ultimo. In Florida due studenti di 13 e 14 anni hanno usato un’applicazione basata sull’intelligenza artificiale per creare delle immagini di nudo di loro compagni di scuola. Tutti ragazzi poco più piccoli, fra i 12 e i 13 anni. Tecnicamente questa tecnica si chiama deepfake. L’intelligenza artificiale ruba il volto di una persona per accostarlo a un corpo con fattezze simili, vero o frutto di una elaborazione dell’intelligenza artificiale. Un caso simile si è verificato anche in Italia.

Quello che è interessante questa volta è l’esito. Secondo una serie di documenti recuperati dalla versione internazionale di Wired, il 22 dicembre 2023 questi due ragazzi sono stati arrestati dalla polizia della Florida. L’accusa è quella di aver infranto una legge statale che vieta la condivisione di qualsiasi immagine di una persona che sia alterata in chiave sessuale. Ovviamente a meno che non ci sia il consenso del soggetto rappresentato.

Il problema dei deepfake negli Stati Uniti

Nelle carte non viene riferita l’applicazione utilizzata per creare immagini di nudo a partire da foto reali. C’è però un dato. Se in passato per creare immagini del genere era necessario avere una discreta competenza tecnica ora bastano due click e il sito giusto. I principali software che si occupano di immagini generate dall’intelligenza artificiale hanno dei filtri che vietano la produzione di immagine pornografiche ma questo non vale per i programmi meno noti.

Negli Stati Uniti il problema dei deepfake è stato evidente con il caso di Taylor Swift. Su X (fu Twitter) sono girati per giorni immagini e video che sovrapponevano il volto della cantante a scene di pornografia. C’è poi un dato. Non importa che il deepfake sia accurato, che i contorni del volto aderiscano perfettamente o che le proporzioni del corpo siano rispettate: basta anche solo un’immagine esplicita per ferire una vittima. Lo hanno spiegato i genitori di una delle vittime dei ragazzi arrestati in Florida:

“Le nostre figlie non si sentono al sicuro mentre camminano negli stessi corridoi con questi ragazzi". Una vittima, anonima, ha commentato la vicenda a una televisione locale: “Quello che è successo mi fa sentire violata, mi sento sfruttata e mi sento usata“.

125 CONDIVISIONI
423 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views