“Mi ha chiesto di uscire con lui, ma ha usato ChatGPT”: i rischi del social offloading per i giovani

Gia l'arrivo delle app di dating aveva radicalmente trasformato il nostro modo di vivere le relazioni, ma oggi, con l'intelligenza artificiale alla portata di tutti, potremmo essere di fronte a una nuova rivoluzione delle interazioni umane, che va bene oltre le relazioni sentimentali. Alcuni esperti lo hanno già rinominato "social offloading", letteralmente "scarico sociale", ovvero la tendenza sempre più comune soprattutto tra i più giovani, ma non solo, a "scaricare" la gestione delle relazioni sociali all'intelligenza artificiale, con conseguenze potenzialmente anche molto dannose non solo per la vita sociale, ma anche per l'identità stesso dell'individuo.
È quello che succede quando ad esempio chiediamo un consiglio a un chatbot dopo aver litigato con un amico o con il proprio partner o dopo essere rimasti feriti dal comportamento di qualcuno. Ma il social offloading può anche spingerci a sostituire la nostra voce con quella dell'IA, non ritenendoci all'altezza di quella data situazioni. Sicuramente non quanto potrebbe essere ChatGPT e simili. Sempre più ragazzi ad esempio si affidano ai chatbot anche per rispondere a un messaggio o dire qualcosa di importante, convinti che l'IA sappia trovare le parole e il modo migliore per farlo. Un fenomeno che rischia – avvertono diversi esperti – di compromettere, soprattutto nei ragazzi più giovani, la formazione di quelle stesse capacità sociali che già l'isolamento sociale imposto dalla pandemia ha fortemente minato.
"Mi ha scritto usando ChatGPT"
Emily e Patrick (nomi di fantasia) sono due ragazzi al terzo anno di università. Si sono visti la prima volta a un appuntamento al buio. Tutto sembrava andare per il meglio e Patrick è pronto a chiedere a Emily di uscire di nuovo insieme, ma terrorizzato dalla paura di dire qualcosa di sbagliato, chiede a un chatbot di scrivergli il messaggio da inviare alla ragazza. Prende la risposta, aggiusta il minimo indispensabile e la invia a Emily. La ragazza all'inizio non ha sospetti, se non per la lunghezza un po' eccessiva, ma quando lo fa leggere ad alcuni suoi amici, che lo testano con i rivelatori di intelligenza artificiale, arriva all'amara scoperta: a scrivere quel messaggio non era sto Patrick, né nessun altro essere umano, ma un'IA.
I due ragazzi hanno raccontato la storia alla CNN, aggiungendo però che in fondo nel loro gruppo di conoscenti non è la prima volta che sentono storie di questo tipo. "Ho provato a mettere per iscritto i miei pensieri, ma non ero sicuro di come esprimerli in modo che non risultassero, tipo, pessimi, così sono andato su Chat". Patrick ha anche spiegato di essersi rivolto a ChatGPT perché temeva che scrivendo il messaggio da solo sarebbe stato meno chiaro con il rischio che Emily lo avrebbe frainteso.
L'impatto sulle relazioni
Lo psicologo Michael Robb, a capo della ricerca del Common Sense Media, un'organizzazione senza scopo di lucro che offre raccomandazioni alla famiglie sull'uso sicuro per bambini e ragazzi di tecnologie e media, ha spiegato alla CNN che il social offloading sta diventando più comune di quanto si possa immaginare, non solo da parte della Gen Z, ma anche dai ragazzi giovanissimi della Gen Alpha e perfino tra diversi millennial. Nello specifico, secondo un sondaggio condotto da Common Sense Media, quando si tratta di argomenti personali, un adolescente preferirebbe parlare con un'IA piuttosto che con un interlocutore umano. Quindi siamo di fronte a un fenomeno molto più ampio e non limitato a una specifica fascia anagrafica.
Secondo l'esperto questo fenomeno sempre più generalizzato rischia di avere gravi conseguenze non solo sulle interazioni sociali, ma anche sulla formazione della stessa identità e dell'autostima dei ragazzi. Da una parte infatti potrebbe creare "una discrepanza – avverte lo psicologo – tra aspettative e realtà" nella persona che riceve questo tipo di messaggi, soprattutto se questo avviene durante la fase iniziale del rapporto, perché l'interlocutore non sta conoscendo l'altro per quello che è ma nella versione che ha rielaborato l'IA.
Ma soprattutto gli esperti temono che l'affidarsi all'IA nell'esprimere le proprie emozioni, e più in generale nel rapportarsi all'altro, possa compromettere la formazione delle competenze sociali nei ragazzi, che potrebbero perdere la capacità di gestire l'ambiguità nelle relazioni e perfino quella di comprendere l'altro. Non solo, dato che le relazioni sociali fanno intrinsicamente parte dell'essere umano e su di esse molto si basa anche la percezione del proprio valore, affidarsi all'IA anche in questo ambito della nostra esistenza potrebbe minare la nostra stessa identità e la nostra autostima, con conseguenze molto pericolose anche per il benessere individuale.
Il rischio dell'isolamento sociale
Altri ricercatori mettono l'accento sul rischio di isolamento sociale che la presenza pervasiva dei chatbot potrebbero avere sulla vita dei ragazzi, molti dei quali hanno già subito il trauma della pandemia proprio durante la delicata fase dell'adolescenza, dove il rapporto con gli altri è fondamentale per al formazione della propria identità.
In questo contesto dove la cosiddetta "solitudine digitale" è un'emergenza dichiarata, come riportano i dati dell'Organizzazione Mondiale della Salute, con circa il 17-20% dei giovani tra i 13 e i 30 anni che affermano di sentirsi soli, il rischio – ha spiegato Russell Fulmer, professore associato alla Kansas State University – è che l'IA faccia finire i più giovani in un "circolo vizioso della solitudine", in quanto offrendo loro l'illusione che ci sia sempre qualcuno pronto ad ascoltarli, potrebbe spingerli verso un isolamento sociale sempre maggiore.
Purtroppo le conseguenze indirette a cui questi pericolosi meccanismi possono contribuire li abbiamo già visti. Dal caso di Adam Raine, il ragazzo californiano di 16 anni suicidatosi un anno fa a causa – secondo la famiglia – anche delle sue conversazioni con ChatGPT, alla drammatica vicenda della 13enne precipitata da un balcone a Piacenza il 25 ottobre 2024 e per la cui morte il fidanzato di 17 anni è stato condannato in primo grado. Qualche giorno prima di morire la ragazza aveva chiesto a ChatGPT come distinguere un amore vero a una relazione tossica.