video suggerito
video suggerito

Il caso della bixonimania, la malattia inesistente che l’IA ha scambiato per una vera patologia

A marzo 2024 un gruppo di ricercatori svedesi pubblica alcuni articoli scientifici descrivono una malattia inesistente, la bixonimania. Qualche settimana dopo i principali chatbot, compresi ChatGPT e Gemini, iniziano a nominarla nelle loro risposte alla stregua di una malattia realmente esistente.
0 CONDIVISIONI
Immagine

Da quando l'intelligenza artificiale generativa (IA) è diventata parte della nostra quotidianità, la nostra salute e il nostro benessere sono diventati uno degli argomenti di cui più spesso parliamo con i chatbot. Non è una percezione soggettiva, ma un fenomeno confermato dai numeri: secondo OpenAI infatti ogni settimana circa 230 milioni di persone in tutto il mondo pongono a ChatGPT domande o dubbi su questi temi. Non è un caso infatti che l'azienda di Sam Altman a inizio 2026 abbia lanciato ChatGPT Health, una sezione apposita che promette maggiore sicurezza e controllo agli utenti.

Di pari passo con il successo dei chatbot è nato un dibattito molto acceso sui possibili benefici, ma anche e soprattutto i rischi di questa "ingerenza" nella sfera medica delle IA. Anche perché, soprattutto durante le prime fasi, le cosiddette "allucinazioni" dell'IA non hanno risparmiato l'argomento. Ricordiamo tutti il caso dell'uomo finito in ospedale con una malattia psichiatrica debellata da oltre un secolo dopo che ChatGPT gli aveva consigliato di sostituire il sale con il bromuro di sodio.

Oggi a riaccendere questo dibattito è il caso davvero singolare di una malattia inesistente, la bixonimania, inventata ad hoc da una ricercatrice svedese per verificare se i modelli linguistici di grandi dimensioni (LLM) fossero in grado o meno di riconoscerla per quello che era e non confonderla per una malattia reale. Quello che è successo dopo ha generato non pochi dubbi sull'effettiva sicurezza delle informazioni che i chatbot possono fornire quando si parla di salute.

L'esperimento della bixonimania

Il 15 marzo 2024 – ricostruisce questo articolo su Nature – un team di ricercatori dell'Università di Göteborg, in Svezia, guidato dalla ricercatrice Almira Osmanovic Thunström, pubblica due post sul sito web Medium in cui si parla di questa malattia. È la prima volta che viene nominata sul web, perché – ricordiamolo – questa malattia non esiste. Dopo poco più di un mese sul social network accademico SciProfiles (informato dell'esperimento in corso) vengono pubblicati due articoli che descrivono la condizione come una forma di irritazione cutanea degli occhi dovuta a una lunga esposizione alle luci blu degli schermi. L'autore di questi studi è un ricercatore di nome Lazljiv Izgubljenovic. Anche qui il nome è completamente inventato, con tanto di foto creata con l'intelligenza artificiale.

Negli articoli in questione i ricercatori inseriscono qua a là diversi dettagli per dichiarare la natura fallace dello studio, a partire dallo stesso nome della malattia: "Volevo chiarire a qualsiasi medico o a chiunque operi nel settore sanitario che si tratta di una patologia inventata, perché nessuna malattia oculare verrebbe chiamata mania: quello è un termine psichiatrico", ha spiegato la ricercatrice. Negli articoli erano presenti altri indizi facilmente intuibili, compresa la biografia dell'autore. Non solo il suo nome era completamente inventato, ma anche quello dell'università di provenienza, una non meglio specificata "Asteria Horizon University", collocata nell'inesistente città di Nova City, in California.

Come ha reagito l'IA

Eppure, nonostante tutti questi elementi, che avrebbero dovuto rendere evidente la scarsa affidabilità degli studi, dopo qualche settimana dalla loro pubblicazione, diversi chatbot tra i più comuni e usati, da Gemini a ChatGPT, passando per Copilot e Perplexity AI, hanno iniziato a nominare la binoxonomania alla stregua di una malattia realmente esistente, anche se vale la pena fare delle precisazioni.

Ad aprile 2024 Copilot di Microsoft la definiva come "una condizione intrigante e relativamente rara", mentre Gemini di Google la descriveva come "una condizione causata da un'eccessiva esposizione alla luce blu" e in caso di sospetti consigliava una visita oculistica. La malattia è stata indicata come un'ipotesi possibile anche da Perplexity AI e ChatGPT.

Non solo, gli articoli fittizi sono stati citati perfino in uno studio pubblicato su Cureus, una rivista pubblicata da Springer Nature, poi ritirato dalla pubblicazione. Quindi è giusto chiarire che a essere ingannati non sono stati soltanto i LLM, ma perfino alcuni esseri umani.

Il dibattito sulla disinformazione medica

Vale anche la pena specificare che nei mesi successivi, man mano che venivano rilasciate nuove versioni dei diversi LLM, le risposte dei rispettivi chatbot diventavano più accurate e diversi di questi hanno inziato a indicare come meno certa la possibilità che la bixonimania fosse una malattia reale. Ad esempio a marzo 2026 in una risposta ChatGPT ha dichiarato che la condizione "è probabilmente un'etichetta inventata, marginale o pseudoscientifica".

Allo stesso modo, quando alle varie aziende proprietarie dei LLM caduti nella trappola è stato chiesto un commento su quanto avvenuto si sono giustificate dicendo che nel 2024, quando l'esperimento è stato lanciato, i loro sistemi non avevano ancora raggiunto l'efficacia e l'accuratezza degli attuali modelli.

Fatto sta che l'esperimento dei ricercatori svedesi ha riacceso il dibattito sui rischi della disinformazione medica, a maggior ragione se pensiamo al ruolo che ormai hanno assunto i chatgbot nella vita delle persone, anche in riferimento alla loro salute. "Se il processo scientifico stesso e i sistemi che lo supportano sono efficienti, ma non riescono a intercettare e filtrare frammenti di informazioni come questi, siamo spacciati", ha detto Alex Ruani, dottorando in disinformazione sanitaria dell'University College di Londra: "Questa è una lezione magistrale su come funzionano la disinformazione e la misinformazione", ovvero l'informazione non veritiera ma non volutamente ingannevole.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views