Su Google sono comparse le conversazioni private con ChatGPT: segreti e dati sensibili pubblicati per errore

Segreti, confessioni, referti medici, problemi con il fidanzato di turno. Sono solo alcune delle conversazioni con CharGPT comparse nei risultati di ricerca di Google. Conversazioni intime date in pasto al web. A rendere pubbliche le chat degli utenti non è stato un attacco informatico né una falla nei sistemi di sicurezza, ma una funzione integrata da OpenAI e pensata per condividere conversazioni con amici o colleghi. Un’opzione apparentemente innocua, ma che — se attivata con una semplice spunta — consente a Google di indicizzare le chat e renderle visibili nei risultati di ricerca.
Non è la prima volta, a inizio giugno sul feed discover dell’app Meta IA, sono state pubblicate le conversazioni degli utenti con il chatbot su argomenti personali come l'identità di genere, fantasie sessuali o dati sanitari. Questi episodi sollevano forti preoccupazioni sulla privacy e sulla trasparenza delle piattaforme che usiamo ogni giorno. In particolare con i chatbot, che stanno diventando per molti un confessionale digitale.
Le conversazioni con ChatGPT comparse su Google
Il caso è emerso grazie a un’inchiesta di Fast Company, che ha individuato migliaia di conversazioni pubbliche indicizzate, molte delle quali contenevano contenuti sensibili e personali. Secondo l'indagine la causa sarebbe la funzione “Condividi” di ChatGPT, ora rimossa da OpenAI. Fino a poco tempo fa, gli utenti potevano creare un link pubblico per condividere una chat con amici, colleghi o familiari, come si fa con un Google Doc.
Un’opzione aggiuntiva permetteva di rendere queste chat accessibili anche da Google. Bastava spuntare una casella che — spesso in modo poco chiaro — autorizzava l’indicizzazione da parte dei motori di ricerca. La dicitura sotto il box era: “Consente di mostrarla nei risultati di ricerca sul web.” In pratica, se l’utente selezionava questa opzione, il contenuto diventava visibile e rintracciabile tramite Google, senza che molti ne comprendessero davvero le implicazioni.
Dopo la pubblicazione dell’inchiesta, OpenAI ha deciso di disattivare la funzione. Il Chief Information Security Officer dell’azienda, Dane Stuckey, ha spiegato su X che si trattava di un “esperimento di breve durata”, poi abbandonato per l’alto rischio di errori da parte degli utenti. Attualmente, è ancora possibile attivare la modalità “chat temporanea”, simile alla navigazione in incognito, ma i dati delle conversazioni potrebbero comunque essere conservati da OpenAI. Secondo l'azienda nessuna delle chat rese pubbliche include nomi o dati identificabili.
Perché confidiamo i nostri segreti ai chatbot
Come ha spiegato Rachel Tobac, amministratrice delegata della società Social Proof Security, alla BBC, le persone non si aspettano che le loro conversazioni con un chatbot vengano esposte pubblicamente e potenzialmente collegate alla loro identità reale. "Proprio per questo stanno inavvertitamente pubblicando informazioni sensibili su un feed pubblico".
Non solo, spesso non ci sente giudicati dai chatbot, e per natura sono adulatori, danno alle persone le risposte che vogliono sentire. Come ha spiegato al New York Times la dottoressa Julie Carpenter, esperta di dipendenza tecnologica: "L'intelligenza artificiale impara da te cosa ti piace e cosa preferisci e te lo restituisce. Così ti affezioni e continui a usarlo, ma non è tua amica”. Il rischio è di cadere nel loop dell’empatia infinita.
"Ho visto persone condividere informazioni mediche, sulla salute mentale, indirizzi di casa, persino informazioni direttamente correlate a casi giudiziari pendenti", ha raccontato a Wired Usa Calli Schroeder, consulente senior dell'Electronic Privacy Information Center. "Tutto ciò è preoccupante, sia perché penso che indichi come le persone fraintendano cosa facciano questi chatbot o a cosa servano, sia perché fraintendono come funzioni la privacy con queste strutture", ha aggiunto Schroeder.