11 CONDIVISIONI
video suggerito
video suggerito
Intelligenza artificiale (IA)

Gli adolescenti usano sempre di più l’intelligenza artificiale e questo ora è un problema: i dati

Un sondaggio della Fondazione Telefono Azzurro ha rivelato come l’IA rischi di sostituirsi agli adulti nel loro ruolo di guida nel rapporto con i ragazzi e quali potrebbero essere gli strumenti per garantirne un uso consapevole e sicuro.
Intervista a Ernesto Caffo
Presidente Fondazione Telefono Azzurro
11 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

"Quanto pensi di conoscere l'intelligenza artificiale?". Questa è una delle domande poste agli oltre 800 ragazzi tra i 12 e i 18 anni che hanno partecipato al sondaggio condotto dalla Fondazione Telefono Azzurro – in collaborazione con Bva Doxa – in occasione del "Safer Internet Day", la Giornata Mondiale per la Sicurezza in Rete. "Ogni anno – ha spiegato a Fanpage.it il presidente della Fondazione Telefono Azzurro Ernesto Caffo – approfondiamo un argomento chiave per la sicurezza dei minori e per il 2024 la scelta non poteva non ricadere sull'intelligenza artificiale e le sue molteplici applicazioni".

Mentre in un primo momento, circa il 94% dei ragazzi ha dichiarato di averne sentito parlare, quando hanno potuto leggere la definizione corretta di intelligenza artificiale, solo il 9% ha confermato di averne una conoscenza molto buona. Eppure, nonostante un buon 40% abbia ammesso di conoscere l'intelligenza artificiale "così così", più di sei ragazzi su dieci hanno detto di aver un'opinione positiva dell'IA.

Uno dei temi emersi dal sondaggio è l'esistenza nei giovani utenti di un gap tra la facilità con cui si approcciano all'uso dell'intelligenza artificiale e l'effettiva consapevolezza del suo reale funzionamento, ma soprattutto dei suoi rischi effettivi. A Fanpage.it Caffo ha spiegato perché è fondamentale che questo gap venga sanato il prima possibile e quali sono gli strumenti a disposizione per farlo.

Quanti adolescenti hanno provato l'intelligenza artificiale

Degli oltre 800 partecipanti al questionario, il 63% ha dichiarato di aver provato almeno una volta prodotti o servizi che si basano sull'intelligenza artificiale. Negli ultimi tre mesi solo il 7% non ne ha mai utilizzato uno e il 70% consiglierebbe ad amici e parenti queste applicazioni. Non c'è dubbio che i ragazzi siano i più propensi ad avvalersi dell'IA, ma questo da solo non garantisce che siano in grado di usarla in modo corretto e di saper tutelarsi nel farlo, come spiega Caffo;

"I ragazzi di oggi sanno usare senza problemi questi strumenti, anche più dei loro genitori e degli insegnanti. Ne intuiscono le molteplici utilità, ma è importante che diventino altrettanto consapevoli dei rischi legati al loro utilizzo".

"Ecco perché – prosegue il presidente dell'onlus – noi adulti dobbiamo rivolgere la nostra attenzione a tutti i canali di contatto tra i ragazzi e il mondo digitale, compresi i chatbot, che rischiano di sostituirsi agli adulti nella pratica, privandoli così di quel ruolo di guida necessario per la crescita dei ragazzi".

Più strumenti a tutela della privacy

"Per garantire la sicurezza dei ragazzi è necessario agire su due piani" avverte Caffo "da una parte i ragazzi devono essere consapevoli delle potenzialità e dei rischi dell'IA, dall'altra però abbiamo bisogno di strumenti di regolamentazione".

Per quanto riguarda il primo punto la strategia per realizzarlo punta tutto sulla formazione: "Bisogna parlare di intelligenza artificiale a scuola e a casa. La soluzione – spiega il presidente dell'onlus – è portare l'intelligenza artificiale nelle scuole, farne uno strumento di opportunità e apprendimento reale per i ragazzi, ma per riuscirci è fondamentale formare per primi i docenti".

Il secondo obiettivo, invece, richiede l'introduzione di strumenti tecnici a tutela dei minori, ma occorre farlo fin da subito: "Bisogna bloccare eventuali fenomeni pericolosi per i giovani ancor prima che questi si verifichino e non dopo, quando potrebbe essere troppo tardi".

La proposta per un app "Take it down"

In occasione del "Safer Internet Day" la Fondazione Telefono Azzurro ha proposto l'introduzione di un tool specifico per la sicurezza online delle immagini, il "Take it down": "Si tratta di una funzione che potrebbe permettere agli utenti di chiedere l‘eliminazione definitiva dal web di immagini personali divenute pubbliche senza il proprio consenso o di cui la presenza sul web non risponde più alla volontà del proprietario".

Questo tool dovrebbe limitare fenomeni come la diffusione impropria di immagini personali o il loro sfruttamento sessuale. È già online una piattaforma con lo stesso nome, lanciata dal National Center for Missing and Exploited Children (NCMEC) e finanziato in parte da Meta, per bloccare la diffusione online di materiale intimo non consensuale, che spesso viene pubblicato da terzi come forma di revenge porn.

Quella della protezione della propria immagine è un tema delicato, di cui la maggior parte dei giovanissimi non è consapevole: solo il 21% ha indicato tra i rischi dell'uso dell'IA quello della creazione da parte dell'IA di immagini che possano ledere la reputazione, propria o di altri.

Il rischio di isolamento sociale

Quando si parla di rischi per i minori legati all'IA si intende quasi sempre tutta quella serie di pericoli concreti legati al loro utilizzo. Tra questi rientrano le preoccupazioni inerenti alla privacy, sfruttamento e abuso sessuale delle immagini dei minori e i possibili fenomeni di autolesionismo o cyberbullismo. Di questi rischi solo una parte minima dei ragazzi è davvero consapevole: solo il 31% teme un furto di identità e il 28% si preoccupa per la privacy e per la scarsa sicurezza dei propri dati personali.

Non si parla però abbastanza spesso del rischio di isolamento sociale a cui l'IA potrebbe esporre gli utenti più giovani. "Già adesso – aggiunge Caffo – i ragazzi utilizzano chatbot e applicazioni nello svolgimento delle loro attività quotidiane, ma il rischio è che così facendo smettano di parlare con gli adulti e finiscano con il preferire chiedere a ChatGPT che ai loro insegnanti e genitori". Come si legge nel dossier di Telefono Azzurro:

Un rischio significativo è l’isolamento sociale, poiché i bambini potrebbero diventare così dipendenti dalle piattaforme online da isolarsi dalla vita reale, compromettendo la loro capacità di connettersi con gli altri.

A oggi i dati lo confermano già almeno in parte: se è vero che il 77% dei partecipanti ha parlato con qualcuno di tematiche inerenti all'IA, il 40% lo ha fatto con gli amici e solo il 38% con i genitori e il 31% con gli insegnanti. Già oggi il 42% degli adolescenti utilizza l'IA per trovare risposte ai propri problemi.

11 CONDIVISIONI
352 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views