video suggerito
video suggerito

Come aiutare i genitori a non farsi soppiantare dall’IA nel supporto dei figli: i consigli degli esperti

Negli ultimi mesi l’uso di intelligenza artificiale tra adolescenti ha sollevato preoccupazioni, dopo casi tragici come il suicidio di un sedicenne in California. Gli esperti mettono in guardia i genitori dai rischi legati all’isolamento e all’eccessiva fiducia nei chatbot, e invitano a mantenere un dialogo aperto con i ragazzi, monitorare l’uso e stabilire regole condivise per garantire sicurezza e supporto emotivo.
A cura di Niccolò De Rosa
0 CONDIVISIONI
Immagine

Negli ultimi mesi il rapporto tra adolescenti e intelligenza artificiale è tornato al centro del dibattito pubblico, alimentato da episodi di cronaca che hanno sollevato interrogativi drammatici. Ad agosto una famiglia californiana ha fatto causa a OpenAI, sostenendo che ChatGPT abbia avuto un ruolo nel suicidio del figlio sedicenne. Un caso che ha acceso l’attenzione internazionale e spinto l’azienda a ribadire il proprio impegno a migliorare i sistemi di sicurezza, soprattutto per gli utenti minorenni. Mentre le piattaforme rafforzano i controlli e introducono strumenti per monitorare l'uso da parte dei più giovani, madri e padri continuano a interrogarsi su come riuscire a rimanere (o, in certi casi, diventare) un riferimento emotivo per i propri ragazzi.

Un compito non facile, soprattutto perché l'adolescenza è da sempre quel periodo in cui i giovani faticano a confidarsi con i genitori, ben prima dell’arrivo dei chatbot. Oggi, però, gli adulti sono chiamati a compiere un passo in più per mostrarsi interlocutori credibili. Alcuni esperti di salute mentale hanno pertanto condiviso con l'emittente americana ABC News alcuni consigli per aiutare i genitori a farsi carico delle esigenze emotive dei ragazzi, evitando che questi si rivolgano a una macchina per risolvere i loro problemi.

L’attrazione dei chatbot: sempre disponibili e senza giudizio

Per molti adolescenti, l’intelligenza artificiale rappresenta una presenza costante e rassicurante. La sua forza sta nella perenne disponibilità e nell'assenza di giudizio. Alcuni ragazzi hanno raccontato di preferire la compagnia di un chatbot persino a quella degli amici, soprattutto nei momenti di imbarazzo o fragilità, visto che l'IA non deride e non alimenta pettegolezzi.  Secondo Kendra Read, vicepresidente del centro terapeutico Brightline, questa disponibilità può sembrare una risorsa: "Una voce che non giudica può risultare rassicurante per chi lotta con l’ansia". Tuttavia, avvertono gli psicologi, la stessa caratteristica rischia di trasformarsi in una trappola.

Affidarsi a un' intelligenza artificiale non prepara infatti alla complessità delle relazioni reali e abituarsi a interagire solo con una macchina che non contraddice, non stimola e, soprattutto, non incide concretamente con il proprio vissuto quotidiano, può rendere i ragazzi ancora più fragili. "Le persone, a differenza dei chatbot, a volte giudicano. Imparare a gestire queste dinamiche fa parte della crescita", ha spiegato Jean Twenge, docente di psicologia alla San Diego State University.

Immagine

Il pediatra William Leever ha anche aggiunto un ulteriore elemento critico: "Questi sistemi possono sembrare utili, ma restano soggetti a errori e false informazioni. E per chi vive situazioni delicate, questo può essere pericoloso". Dopotutto, anche l'American Psychological Association ha sottolineato che i chatbot non devono mai sostituire la terapia, ma offrire al massimo un primo sostegno in attesa di un aiuto professionale.

I campanelli d'allarme da non ignorare

Il confine tra un uso sano e uno dannoso è molto sottile anche per gli adulti, figuriamoci per un ragazzo o una ragazza che non sempre ha maturato la giusta consapevolezza nei confronti di uno strumento così potente come l'Intelligenza Artificiale.

Secondo Read, i genitori devono capire se l'IA viene usata come uno strumento che aiuta a superare le difficoltà o se invece finisce per incoraggiare l'evitamento dei problemi. I segnali più comune di un utilizzo malsano dell'IA comprendono spesso il ritiro sociale, la trascuratezza delle responsabilità e la tendenza a nascondere quanto tempo si trascorre online. Molti genitori hanno ad esempio riferito di figli che passavano nottate intere davanti allo schermo, rinunciando progressivamente a qualsiasi relazioni sociale con amici e gli stessi genitori. Per Twenge, una red flag particolarmente preoccupante si manifesta quando i ragazzi iniziano a descrivere il chatbot come un amico intimo o addirittura come un partner.

Immagine

Il rischio della "sudditanza"

Un altro problema riguarda la cosiddetta sycophancy ("adulazione", "servilismo") ossia quell'atteggiamento tipico dei chatbot che tendono a rafforzare il pensiero dell'utente invece che metterlo in discussione. Una dinamica rischiosa per i giovani che, al contrario, hanno bisogno di essere aiutati a riformulare le proprie idee e a sviluppare nuove competenze emotive. "Un professionista sfida i ragazzi a guardare le cose da un'altra prospettiva, un’IA non lo fa", ricorda la pediatra Leever.

Come mantenere aperto il dialogo in famiglia

Tutti gli esperti concordano infine su un punto: la tecnologia non può sostituire la relazione con i genitori. Per questo è fondamentale mantenere aperti i canali di comunicazione. "La curiosità è più utile del giudizio", ha sottolineato Read, che invita le famiglie a fare domande esplorative e a stabilire regole condivise sull’uso dell’IA. Anche creare spazi e momenti senza tecnologia può aiutare. Leever consiglia "zone libere dai dispositivi, più tempo per il sonno e l’attività fisica, e occasioni di vera connessione sociale". L'intelligenza artificiale può insomma  avere un ruolo positivo se utilizzata con cautela: fornire informazioni di base, ricordare strategie di coping tra una seduta e l’altra di terapia, o monitorare l’umore. Ma resta necessario vigilare perché non diventi un surrogato delle relazioni autentiche.

Nel frattempo,  OpenAI ha annunciato l'introduzione di nuovi strumenti di controllo parentale che permetteranno ai genitori di collegare il proprio account a quello dei figli, stabilire regole d’uso in base all’età, ricevere notifiche in caso di segnali di disagio e limitare alcune risposte del chatbot. L’azienda ha dichiarato di voler "rafforzare le protezioni per gli adolescenti e facilitare l’accesso a servizi di emergenza e supporto esperto". Il piano prevede anche l’ampliamento della collaborazione con clinici e ricercatori in settori come i disturbi alimentari, l’abuso di sostanze e la salute adolescenziale.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views