Il video della ragazza in lacrime bloccata all’aeroporto: “Tutta colpa di ChatGPT, non mi fiderò mai più”

"Guarda, mi informo sempre tanto, ma ho chiesto a ChatGPT e mi ha detto di no. Non mi fido più di quel tizio". Una coppia di tiktoker spagnoli ha raccontato in un video sui loro profili social che non sono riusciti a partire per la loro vacanza a Porto Rico dopo avere ricevuto un'informazione sbagliata dal chatbot sui documenti necessari per entrare nell'isola caraibica.
La protagonista, Mary Caldass, un po' piange e un po' ride mentre è ancora in aeroporto e racconta ai suoi oltre 922.000 follower di aver perso il volo per Porto Rico perché non erano in possesso del visto. Il video è più un siparietto tragicomico che una denuncia vera e propria, ma il tema è serio: i rischi di affidarsi completamente ai chatbot nonostante esista la possibilità che sbaglino. Sono le cosiddette "allucinazioni" dell'intelligenza artificiale, che per quanto sporadiche, possono verificarsi. Ecco perché, soprattutto su temi come la salute o la sicurezza personale (anche economica), non si dovrebbe mai fare affidamento soltanto a quello che ci dicono ChatGPT e simili.
Cos'è successo
La coppia ha raccontato nel video di aver chiesto a ChatGPT se per andare a Porto Rico servisse o meno il visto e che il chatbot li avrebbe rassicurati dicendo che non ci fosse bisogno del documento. Mentre il compagno la abbraccia e consola, la tiktoker e youtuber dice, con le lacrime agli occhi: "Guarda, mi informo sempre tanto, ma ho chiesto a ChatGPT e mi ha detto di no. Non mi fido più di quel tizio".
Per quanto sconfortata, poi la ragazza scherza sull'accaduto e aggiunge che in realtà ChatGPT si è voluto vendicare per tutte le volte in cui lo ha insultato: "È la sua vendetta, perché tante volte gli rispondo male, gli dico idiota, sei inutile. Però informami bene".
Nella sezione dei commenti, tanti hanno "difeso" ChatGPT, dicendo che in realtà la sua risposta non è stata completamente sbagliata. Alcuni scrivono di aver testato loro stessi il chatbot facendogli la stessa domanda e di aver ricevuto una risposta diversa da quella che la coppia di tiktoker dice di aver avuto. Un utente scrive: "ChatGPT ha ragione, non hai bisogno di un visto. Ecco la risposta completa: i titolari di passaporto UE non hanno bisogno di un visto per Porto Rico, ma devono ottenere un ESTA nell'ambito del Programma di esenzione dal visto degli Stati Uniti (Visa Waiver Program – VWP) per soggiorni fino a 90 giorni".
Attenzioni agli errori dei chatbot
Un altro utente semplicemente – e potremmo aggiungere saggiamente – scrive: "Conclusione: per questo tipo di cose, prima di tutto, chiedi alle autorità e/o alle istituzioni competenti, non all'IA". Ora, ovviamente perdere il volo per colpa di un documento mancante non deve essere piacevole, ma ci sono stati casi in cui un errore di un chatbot o una risposta mal interpretata ha fatto danni ben peggiori.
L'argomento in cui bisogna prestare più attenzione è la salute, come da altro riconosce anche ChatGPT, che nelle risposte su questo tema in linea di massima specifica sempre di chiedere conferma al proprio medico. Uno degli episodi più gravi risale solo a qualche settimana fa: parliamo del caso dell'uomo che ha sviluppato il bromismo, una sindrome psichiatrica dell’800, dopo aver sostituito, dietro consiglio di ChatGPT, il sale da cucina con il bromuro di sodio, un composto chimico che può causare, oltre ad allucinazioni ed effetti psicotici, danni al sistema nervoso.