video suggerito
video suggerito

I compagni di classe la spogliano con l’IA, ma è la vittima a essere espulsa dalla scuola: il caso di Thibodaux

Il caso non è isolato, con i progressi dell‘intelligenza artificiale è diventato ancora semplice spogliare corpi con un click e le scuole non sono pronte ad affrontare l’arrivo dei deepfake tra gli studenti.
A cura di Elisabetta Rosso
10 CONDIVISIONI
Immagine

Sixth Ward Middle School di Thibodaux, Louisiana, Cathy – nome di fantasia – ha 13 anni, è sullo scuolabus quando nota un compagno che scorre immagini sul telefono: una la riconosce subito. Il volto è il suo, il corpo no. È completamente nudo. Quella foto non esiste nella realtà: è un’immagine creata con l’intelligenza artificiale.

Cathy prova a chiedere aiuto. Racconta tutto alla consigliera scolastica e a un vice-sceriffo assegnato alla scuola, ma senza prove concrete il suo racconto viene minimizzato. Nel frattempo, però, i deepfake continuano a circolare tra gli studenti, condivisi su Snapchat e TikTok.

La tensione esplode quando Cathy vede lo stesso compagno mostrare il deepfake a un amico. La rabbia prende il sopravvento: lo colpisce, scoppia una rissa sul pullman. Qualcuno filma la scena e il video finisce sui social. Da quel momento, l’attenzione si sposta dalla violenza subita alla reazione della ragazza. Cathy viene espulsa e trasferita in una scuola alternativa.

L'ultimo caso di deepnude segue un copione già visto. C'è una vittima che non viene aiutata, immagini che rimbalzano su smartphone di amici, compagni e colpevoli che non vengono puniti dalla scuola. Anzi, questa volta è Cathy che viene allontanata in seguito alla rissa. Il caso Thibodaux è solo l'ultimo di una lunga serie, con i progressi dell‘intelligenza artificiale è diventato ancora semplice spogliare corpi con un click. E infatti i numeri dei porno deepfake stanno crescendo esponenzialmente, soprattutto nelle scuole. 

Deepfake a scuola: le scuole sono impreparate

Un tempo realizzare deepfake richiedeva competenze tecniche avanzate, oggi la tecnologia consente di manipolare facilmente fotografie prese sui social e creare immagini realistiche che sembrano reali. Come ha spiegato ad Abc News Sameer Hinduja, docente di criminologia alla Florida Atlantic University, "molte scuole non sono preparate ad affrontare il fenomeno del bullismo digitale alimentato dall’IA.” Il caso di Thibodaux lo dimostra. 

Il distretto scolastico di Lafourche Parish aveva da poco avviato un percorso per regolamentare l’uso dell’intelligenza artificiale, ma le linee guida esistenti erano limitate quasi esclusivamente alla didattica. Nessun protocollo, invece, affrontava in modo esplicito il fenomeno dei deepfake e delle immagini sessualmente esplicite generate dall’IA.

Un vuoto normativo che ha influito sulla gestione della vicenda. Sul fronte giudiziario, i ragazzi accusati di aver diffuso le immagini sono stati incriminati solo settimane dopo l’accaduto. Sul piano scolastico, invece, la reazione è stata immediata e severa nei confronti della studentessa coinvolta: trasferimento in un istituto alternativo e rischio concreto di un’espulsione di quasi tre mesi. La famiglia ha denunciato una risposta sproporzionata e sbilanciata, evidenziando come il compagno indicato come possibile autore o diffusore dei contenuti non abbia affrontato, almeno nella fase iniziale, sanzioni disciplinari comparabili.

Thibodaux come campanello d’allarme per scuole e istituzioni

Il caso non è isolato. Già a settembre 2023 20 ragazze di Almendralejo, un comune spagnolo di Badajoz avevano scoperto che sugli smartphone dei compagni di classe c'erano delle loro foto fake, completamente nude. Una delle studentesse, di 12 anni, era stata anche ricattata da un profilo falso. Su Instagram un ragazzo le aveva chiesto dei soldi per non divulgare le sue foto nude, create grazie all'intelligenza artificiale.

Un caso simile era già successo in Italia con l'app BikiniOff, in grado di spogliare le ragazze a partire da una foto, e sui siti porno sono stati caricati video dove i volti di persone comuni o celebrità sono stati sovrapposti ai corpi delle pornostar, tra queste Emma Watson, Michelle Obama, e Scarlett Johansson.

I porno deepfake hanno un forte impatto psicologico e emotivo sulle vittime, soprattutto se minorenni. Non solo, è quasi impossibile garantire una rimozione completa una volta che le immagini sono state pubblicate. Il caso Thibodaux è l'ennesimo campanello d'allarme sui rischi dei deepfake e su scuole che ancora oggi non sanno proteggere le vittime. 

10 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views