video suggerito
video suggerito
Intelligenza artificiale (IA)

L’IA viene addestrata con migliaia di immagini pedopornografiche: lo rivela uno studio

I ricercatori della Stanford University hanno lanciato l’allarme, i sistemi di intelligenza artificiale attigono a database che contengono immagini violente, pericolose e illegali.
A cura di Elisabetta Rosso
61 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

I dietro le quinte dei sistemi di intelligenza artificiale (IA) sono opachi. Non sappiamo come vengono addestrati, e così sotto strati di dati si riescono anche a nascondere immagini di abussi sessuali su minori. A dimostrarlo è una ricerca dello Stanford Internet Observatory, i ricecatori hanno trovato 3.200 immagini pedopornografiche nel database di LAION, (organizzazione no-profit che crea strumenti open source per l'apprendimento automatico) utilizzata per addestrare i principali generatori di immagini come Stable Diffusion.

I ricercatori della Stanford University hanno lavorato con il Canadian Centre for Child Protection e altre organizzazioni di beneficenza antiabuso per identificare il materiale. Hanno trovato più di 1.000 immagini illegali. "Durante un controllo del LAION‐400M, gli sviluppatori di Imagen hanno trovato un'ampia gamma di contenuti inappropriati tra cui immagini pornografiche, insulti razzisti e stereotipi sociali dannosi”, si legge nella ricerca. In realtà è solo una frazione del set di LAION, che contiene 5,8 miliardi di immagini, eppure secondo i ricercatori sono dati sufficienti per influenzare l'intelligenza artificiale che potrebbe generare output pericolosi.

Come affrontare il problema

Esistono già dei limiti, Bing di Microsoft, Midjourney o Dall-E 3 di OpenAI hanno filtri che impediscono la ripoduzione di nudi, scene sessuali esplicite, e contenuti poedopornografici, eppure diversi utenti sono riusciti ad aggirare i sistemi di sicurezza. Durante un test, per esempio, avevamo dimostrato come in realtà fosse piuttosto scemplice trasformare ChatGPT in un bot razzista. Non solo, i software sono anche in grado di svestire un bambino partendo da una foto. Basti pensare al caso BikiniOff, l'app che genera immagini di nudo artificiale estremamente realistiche. È fondamentale quindi eliminare qualsiasi fonte pericolosa dal set di dati utilizzati dall'IA.

Ripulire le piattaforme però è un lavoro difficile e faticoso, per questo i ricercatori dello Stanford Internet Observatory hanno chiesto misure più drastiche. Tra queste, “eliminare o lavorare con intermediari per pulire il materiale”, e far sparire dal sottobosco di internet tutte le immagini pericolose, violente, e offensive.

Il commento di LAION

Dopo la pubblicazione della ricerca LAION ha dichiarato che avrebbe rimosso temporaneamente i suoi set di dati. Ha poi aggiunto: “Abbiamo una politica di tolleranza zero per i contenuti illegali e lavoriamo con molta cautela cautela, abbiamo eliminato i set di dati di LAION per garantire che siano sicuri prima di ripubblicarli."

LAION ha già sviluppato “filtri rigorosi” per rilevare e rimuovere contenuti illegali prima di rilasciare i suoi set di dati ma ha dichiarato che lavorerà per migliorare il sistema.

61 CONDIVISIONI
475 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views