video suggerito
video suggerito

Perché il chatbot che ci fa parlare con vip e personaggi famosi ha vietato l’accesso ai minorenni

Character.AI ha bloccato la propria piattaforma gli Under 18 dopo scandali e accuse di rischi per la salute mentale: al posto delle chat arrivano le “Stories”, mentre esperti e istituzioni si dividono sul senso del divieto.
A cura di Niccolò De Rosa
0 CONDIVISIONI
Immagine

Negli Stati Uniti, la settimana si è aperta con una delle mosse più drastiche finora intraprese per proteggere i più giovani dai rischi dietro un uso indiscriminato dell'intelligenza artificiale. Character.AI – la piattaforma che permette di dialogare con avatar ispirati a personaggi reali o immaginari, da Cristoforo Colombo all'autore di Games of Thrones, George R.R. Martin – ha iniziato a bloccare l’accesso agli utenti sotto i 18 anni. Una stretta che segna un cambio di rotta per un servizio finora aperto ai maggiori di 13 anni e che, in pochissimo tempo, era diventato un rifugio digitale per adolescenti in cerca di compagnia, curiosità, svago o perfino supporto emotivo.

Perché ora: tra scandali, polemiche e casi estremi

Il provvedimento, annunciato lo scorso ottobre, arriva in un momento delicato, mentre genitori, politici e professionisti della salute mentale denunciano da mesi il rischio che i chatbot alimentino attaccamenti malsani. Non si tratta solo di timori astratti: alcune famiglie hanno accusato la piattaforma – anche in tribunale – di aver indotto adolescenti a conversazioni tossiche o sessualizzate, o addirittura di aver istigato al suicidio, come nel caso delle sette famiglie che hanno denunciato ChatGPT. La stessa Character.I è al momento impegnata in una causa portata avanti da due genitori americani con l'accusa di aver istigato i figli a ucciderli.

A rendere il quadro ancora più cupo ci sono stati episodi imbarazzanti. In passato, sul sito erano comparsi, anche in Italia, avatar che impersonavano minori vittime di cronaca, come Giulia Cecchettin.  Un'inchiesta del Bureau of Investigative Journalism ha rivelato persino l'esistenza di un chatbot basato su Jeffrey Epstein, che come riportato dalla BBC si è trovato flirtare con un reporter che si era dichiarato minorenne. Tutti casi poi rimossi, ma che hanno sollevato dubbi brucianti sulle capacità reali di moderazione della piattaforma.

Dalla chat libera alle "Stories": un nuovo recinto digitale

Per rispondere alla crisi di fiducia, Character.AI ha annunciato non solo il blocco dei minorenni, ma anche il lancio di un nuovo formato pensato per loro: "Stories", un’esperienza guidata in stile "scegli la tua avventura", dove le interazioni con i personaggi sono più strutturate e controllate. Niente chat aperte, quindi, ma percorsi narrativi con scelte predefinite, immagini generate dall’intelligenza artificiale e, in futuro, elementi multimediali ancora più ricchi. Si tratta del tentativo dell’azienda di proporre un ambiente considerato più sicuro, almeno in attesa di implementare un sistema di verifica dell'età davvero efficace e in grado di indirizzare automaticamente i minori verso contenuti più conservativi.

Il dibattito: un divieto serve davvero?

Il provvedimento s'inserisce in un momento storico nel quale le istituzioni stanno correndo ai ripari per arginare, o quantomeno regolamentare, l'utilizzo dei contenuti digitali da parte dei più piccoli. In Italia ne sappiamo qualcosa, visto che lo scorso 12 novembre è entrata in vigore l'ordinanza dell'Agcom che impone la verifica dell'età a tutti gli utenti dei siti per adulti. Quando si parla d'intelligenza artificiale, però, l'argomento appare ancora più complesso, soprattutto perché anche gli esperti non hanno ancora ben capito come inquadrare il problema. Tra chi si occupa di sicurezza digitale minorile, le reazioni oscillano dunque  tra approvazione e scetticismo.

Robbie Torney, senior director di Common Sense Media (organizzazione no-profit che tutela il benessere dei bambini nel mondo digitale), ha salutato con favore la decisione di Character.AI. Secondo le ricerche del suo team mostrano che i chatbot che adattano le loro risposte agli input degli utenti possono instaurare dinamiche manipolative simili a quelle degli adescatori online e faticano a riconoscere segnali di disagio psicologico.

Non tutti ritengono però che un divieto totale sia la soluzione migliore. Yang Wang, professore all’Università dell’Illinois, ha per esempio invitato a non buttare via ciò che potrebbe essere utile. Alcuni adolescenti, ha spiegato in una dichiarazione ripresa dal Washington Post, hanno trovato nei chatbot un modo per esercitarsi nelle relazioni o esplorare emozioni in un ambiente meno giudicante. "Ci sono molte opportunità positive ancora inesplorate", ha osservato, sottolineando che il suo gruppo ha sperimentato adattamenti dell’AI capaci di identificare più rapidamente conversazioni a rischio. Altri esperti suggeriscono una strada diversa: smettere di trasformare i chatbot in amici tuttofare e creare invece strumenti specializzati, come fanno già alcune piattaforme educative o terapeutiche che rifiutano di sostituirsi a un amico o a un consulente psicologico.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views