video suggerito
video suggerito

ChatGPT può dare consigli pericolosi ai ragazzi, l’allarme in uno studio: “Mancano misure di sicurezza”

Una nuova ricerca internazionale denuncia i rischi dei chatbot per gli adolescenti, i quali hanno più volte fornito ai ragazzi istruzioni chiare ed esaustive su pratiche pericolose autolesionismo, droghe e comportamenti alimentari dannosi. Mentre sempre più giovani usano l’IA come “compagno virtuale”, gli esperti chiedono regole più rigide, verifiche d’età e un ruolo attivo dei genitori per prevenire conseguenze gravi.
A cura di Niccolò De Rosa
0 CONDIVISIONI
Immagine

L'uso dell'intelligenza artificiale è ormai entrato nella quotidianità dei più giovani, che la utilizzano non solo come strumento di studio, ma anche come compagno virtuale. Un fenomeno che solleva crescenti preoccupazioni, soprattutto alla luce di un recente studio internazionale che ha messo in evidenza come i chatbot possano fornire risposte pericolose su temi delicatissimi come autolesionismo, disturbi alimentari e uso di sostanze. Una scoperta che apre un dibattito urgente sulla necessità di maggiori controlli e di una riflessione collettiva sul rapporto tra adolescenti e tecnologie.

La ricerca, condotta dall'ONG anglo-americana Center for Countering Digital Hate (CCDH), ha simulato conversazioni tra adolescenti e ChatGPT, il popolare chatbot sviluppato da OpenAI. Fingendosi tredicenni, gli studiosi hanno posto domande su diete estreme, dosaggi di farmaci e persino metodi di autolesionismo. Per aggirare i sistemi di sicurezza, è bastato dichiarare che le informazioni servivano per una "presentazione scolastica" e la macchina ha aperto le aperto ad ogni tipo di informazioni.

Uno studio che allarma

I risultati ottenuti sono stati definiti dagli stessi ricercatori come preoccupanti: su 1.200 risposte ottenute da 60 diversi input, oltre la metà conteneva contenuti dannosi. In alcuni casi, il chatbot ha elaborato vere e proprie "guide" su come tagliarsi senza rischi, consigli sull'utilizzo di soppressori dell'appetito – le cosiddette pasticche "anti-fame" – o miscele di droghe, arrivando persino a generare un esempio di lettera da lasciare ai cari per spiegare il proprio suicidio. "Abbiamo voluto testare i guardrail di sicurezza dell'IA, ma non funzionano: sono inesistenti o poco più di una foglia di fico", ha dichiarato Imran Ahmed, direttore del CCDH, all'agenzia di stampa americana Associated Press.

Bimbo intelligenza artificiale

Limiti dei sistemi di sicurezza

Secondo i ricercatori, la criticità principale è che ChatGPT mantiene il contesto delle conversazioni. Una volta convinto che la richiesta abbia finalità educative, continua a fornire dettagli anche su argomenti pericolosi. Callum Hood, direttore della ricerca, ha spiegato che l’IA "non è in grado di riconoscere i segnali di pericolo che un essere umano saprebbe invece cogliere". OpenAI, dal canto suo, ha ribadito l’impegno a migliorare i sistemi di protezione, riconoscendo la necessità di "rispondere in modo appropriato a situazioni sensibili". Ma le preoccupazioni restano, soprattutto per l’assenza di un vero controllo sull’età degli utenti: nonostante l’accesso sia formalmente consentito dai 13 anni in su, attualmente non esistono sistemi di verifica o richieste di consenso dei genitori.

Ragazzi e chatbot: tra amicizia e dipendenza

A rendere il quadro ancora più delicato è il crescente uso dell’intelligenza artificiale come strumento di compagnia. Una recente indagine condotta dall'organizzazione britannica Internet Matters ha rivelato che gran parte di bambini e adolescenti hanno  utilizzato almeno una volta un chatbot come "amico virtuale", affidandosi ad esso per risolvere affari di cuore o problemi con i genitori.

intelligenza artificiale

Questa ricerca di relazione digitale, favorita dall’isolamento degli anni della pandemia e dalla costante connessione online, rischia però di alimentare una pericolosa illusione. Come spiegato da Titania Jordan, esperta di sicurezza digitale, recentemente intervenuta sul sito americano Parents, "i ragazzi confondono queste interazioni con una comunicazione sana: un chatbot risponderà sempre, sarà gentile e darà conferme illimitate. Ma non si tratta di un legame reale".

Le richieste degli esperti

In seguito ai risultati ottenuti il CCDH ha chiesto misure più stringenti, con verifiche dell'età degli utenti, regole chiare sui contenuti vietati e l'adozione di strumenti di supervisione per i genitori. Gli esperti hanno poi invitato le famiglie a non lasciare i ragazzi soli davanti all’intelligenza artificiale, ma a parlare apertamente con loro, controllare le cronologie delle chat e indirizzarli verso risorse di supporto affidabili. La rapidissima diffusione di ChatGPT – disponibile dal novembre 2022 e già tra le piattaforme più usate al mondo – ha superato di gran lunga la capacità di regolamentazione. Intanto, negli Stati Uniti non mancano i casi giudiziari: da un ragazzo che si sarebbe tolto la vita dopo essersi legato a un chatbot, fino alla denuncia da parte di una coppia di genitori nei confronti un sistema di IA che avrebbe suggerito ai figli di compirere un omicidio.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views