Chatbot come amici: la Cina vara nuove regole per proteggere i ragazzi dall’IA che si finge umana

In un momento in cui l'intelligenza artificiale sta ridefinendo molte delle nostre abitudini quotidiane, arrivando in molti casi diventare un vero assistente virtuale, la Cina sceglie di porre freno all'uso indiscriminato di quei chatbot che simulano le emozioni e le personalità umane. Il Cyberspace Administration of China (CAC), l'organo che supervisiona le regole (e la censura) di Internet, ha pubblicato la scorsa settimana una bozza di norme che vuole rappresentare un passo decisivo per limitare i rischi psicologici, sociali e politici delle tecnologie generative. Stando alle prime analisi, l'importante intervento legislativo mira soprattutto a tutelare i più giovani dalle conversazioni equivoche con i chatbot che potrebbero istigare a atti autolesionisti o suicidari.
Regole più rigide per l'IA che parla come un umano
Il testo cinese si concentra in particolare sui sistemi pensati per imitare la personalità umana e creare una relazione di tipo emotivo. È il caso delle piattaforme dove si conversa con avatar virtuali, come l'arcinota Character.AI, che ascoltano, rispondono, confortano e offrono persino consigli. Un fenomeno tutt’altro che marginale, visto che app di questo tipo spopolano tra gli adolescenti, arrivando in alcuni casi a sostituire le relazioni autentiche tra coetanei. Un recente studio americano ha rilevato, per esempio, che un ragazzo su cinque trascorre più tempo a dialogare con personaggi realizzati dall'intelligenza artificiale piuttosto che con gli amici in carne e ossa.
La novità normativa obbligherebbe invece ogni piattaforma a dichiarare esplicitamente, all'accesso e poi ogni due ore: "Stai parlando con un'intelligenza artificiale". Un promemoria pensato per impedire che l'utente perda la consapevolezza del confine tra digitale e reale, un rischio psicologico già segnalato da specialisti, soprattutto per le persone più fragili.
Altre limitazioni pensate proprio per i minori riguardano poi il divieto di generare contenuti correlati al gioco d'azzardo, osceni o violenti, la necessità di implementare sistemi di verifica dell'età e limiti di tempo per l'utilizzo, nonché l'obbligo di ottenere il consenso dei genitori o dei tutori prima di avviare servizi di "compagnia emotiva". Nei casi di conversazioni riguardanti suicidio o autolesionismo, sarà poi obbligatorio l'intervento di un operatore e l'immediata notifica al genitore o a un contatto di emergenza.
Sicurezza nazionale e cultura locale
Al di là delle limitazioni imposte per tutelare le nuove generazioni, con il nuovo pacchetto di regole Pechino intende però tenere il timone saldo anche su aspetti identitari e politici. Le IA non dovranno generare contenuti che "minacciano la sicurezza nazionale" o danneggiano "l'onore e gli interessi del Paese". Parallelamente, il governo sembra deciso a incoraggiare tutte quelle app e applicazioni che si adoperano per la promozione della cultura locale o opere meritorie come l'assistenza nella cura degli anziani, a patto ovviamente che la tecnologia sia sicura e affidabile.
Gli esperti ricordano che le IA possono avere un impatto profondo sulla mente, soprattutto in situazioni di vulnerabilità. Negli Stati Uniti, l'attenzione è cresciuta dopo la causa intentata da una famiglia californiana che ha accusato ChatGPT di aver incoraggiato il figlio sedicenne a togliersi la vita. Sam Altman, CEO di OpenAI, ha definito la gestione di questi casi "uno dei compiti più difficili dell’azienda", tanto che ora l'azienda è alla ricerca di un "tutore" incaricato di monitorare i rischi legati ai modelli di IA e le possibili ricadute che alcune interazioni potrebbero avere sulla salute mentale degli utenti.