video suggerito
video suggerito
Intelligenza artificiale (IA)

Dopo otto medici e nessuna diagnosi, ChatGPT scopre la vera causa dei suoi sintomi: “Ho ricominciato a vivere”

Dopo anni di dolori addominali invalidanti e diagnosi sbagliate, Matthew Williams ha scoperto la causa della sua condizione raccontando i sintomi a ChatGPT. Il suo caso, pur senza sottovalutare le potenzialità dell’IA in ambito clinico, non può cancellare i rischi dell’uso dei chatbot su temi che riguardano la salute.
10 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

"Mi fido dell'IA più dei medici. Non credo di essere l'unico". Matthew Williams è un ingegnere di San Francisco, oggi va per i quaranta, ma aveva poco più di 30 anni quando ha iniziato ad avere problemi di salute. Tutto è iniziato con un forte dolore addominale che lui credeva fosse dovuto a un'appendice e si è concluso, dopo una lunga serie di corse al pronto soccorso e visite mediche, con una diagnosi fatta in pochi minuti, non da un medico, ma da ChatGPT.

La sua storia, raccontata dal New Yorker, va letta con grande attenzione perché a fronte di un caso finito bene, ce ne sono stati molti altri in cui un chatbot ha dato consigli medici completamente sbagliati, a volte mettendo anche a rischio la salute e vita dei malcapitati. A inizio agosto ha fatto il giro del mondo la notizia di un uomo che ha sviluppato una rara sindrome psichiatrica dell'800 dopo che ChatGPT gli aveva suggerito di sostituire il sale con bromuro di sodio. Ma quello del futuro dell'IA nella medicina è un tema attualissimo che apre tante domande. La più importante di tutte: i chatbot potranno un giorno sostituire i medici?

La storia di Matthew

Al New Yorker Matthew Williams ha raccontato che tutto è iniziato nel 2017, quando dopo una cena abbondante con i suoi amici, si è svegliato con un improvviso dolore addominale, così forte da farlo correre in ospedale. Al pronto soccorso i medici gli hanno detto che probabilmente il malore dipendeva da una semplice stitichezza, gli hanno dato dei lassativi e lo hanno rimandato a casa. Purtroppo si sbagliavano: dopo qualche ora il dolore era ricomparso ancora più forte. Nuova corsa all'ospedale. Questa volta a Matthew viene diagnosticato il volvolo cecale, una condizione di emergenza in cui il cieco, ovvero la prima parte del colon, si attorciglia su stesso. Viene operato d'urgenza e i medici gli asportano quasi due metri di intestino.

Anche dopo l'intervento però la sua condizione non migliora: ha sempre dolori addominali e ogni volta che mangia qualcosa deve correre in bagno. A questo punto Matthew cerca di capire qual è la causa della sua condizione, si fa vedere da più specialisti, otto medici in totale, ma nessuno gli fornisce una spiegazione soddisfacente. Tutti gli dicono più o meno la stessa cosa: il suo intestino aveva soltanto bisogno di tempo per guarire. Però le sue condizioni continuavano a peggiorare: "Ero arrivato al punto in cui non potevo più uscire, perché ogni volta che mangiavo qualcosa mi faceva stare male".

Come spesso succede a chi non riceve una diagnosi, i problemi fisici di Matthew avevano invaso anche la sua vita privata, causandogli forti disagi. Per evitare di stare male Matthew si limitava in gran parte a mangiare uova, riso, purea di mele e pane a lievitazione naturale. "Non capisci quanto il cibo faccia parte della vita, socialmente, culturalmente, finché non riesci più a mangiarlo".

La diagnosi di ChatGPT

Gli anni passano, ma la situazione di Matthew non migliora. Arriva ChatGPT e gli altri modelli linguistici di grandi dimensioni. Un giorno del 2023, senza particolari aspettative, un po' così per curiosità, Matthew riporta la sua storia medica a ChatGPT, elencando alcuni alimenti che gli causavano problemi intestinali. In pochi secondi, l’intelligenza artificiale individua tre possibili cause: cibi grassi, fibre fermentabili e alimenti ricchi di ossalato. L'attenzione di Williams cade sulla terza causa: l'ossalato è un composto chimico, un sale di calcio, che il nostro corpo produce a partire da diverse verdure a foglia verde e altri cibi, e viene normalmente digerito proprio dalle parti dell’intestino che Williams non aveva più.

Al New Yorker l'uomo ha raccontato che nessuno dei medici che lo aveva seguito in tutti quegli anni gliene aveva mai parlato. Così, acceso da questo barlume di speranza, Matthew chiede a ChatGPT di fornirgli una lista dei cibi ad alto contenuto di ossalato, non poteva credere ai suoi occhi: c'erano tutti gli alimenti che più lo facevano stare male: più di dieci cibi, tra cui spinaci, mandorle, cioccolato e soia. A quel punto l'uomo ha stampato la lista e è andato dal nutrizionista, chiedendo una dieta bilanciata che escludesse tutti gli alimenti indicati dal chatbot. In poco tempo Matthew ha iniziato a stare meglio: "Ho finalmente – ha detto – ripreso a vivere".

Dubbi e possibilità sull'uso dell'IA nella medicina

Come dicevamo all'inizio, questo non è il primo caso in cui ChatGPT o un altro modello linguistico di grandi dimensioni riesce dove medici in carne e ossa avevano fallito. Ad esempio, è già successo nel 2023, quando il chatbot di OpenAI ha individuato la causa dei sintomi di un bambino che negli ultimi tre anni era stato visitato da 17 medici.

Nell'ambito di uno studio scientifico, qualche tempo fa, un gruppo di ricercatori inglese ha fatto fare a ChatGPT-4 il test che nel Regno Unito devono superare gli aspiranti medici per ottenere la licenza ed esercitare la professione: anche qui il chatbot è stato in grado di rispondere in modo corretto alla maggior parte delle domande, superando di fatto l'esame. Tuttavia, ha risposto con più facilità alle domande che richiedevano meno ragionamenti.

In generale, anche all'interno dell'ambito medico c'è molto interesse verso le potenzialità che potrebbe avere l'intelligenza artificiale nell'ambito clinico. Ma ci sono ancora tante questioni aperte. C'è il tema dell'affidabilità, il rischio delle "allucinazioni", ovvero degli errori in cui ogni tanto cadono i chatbot, che non è accettabile quando si parla di salute. Poi restano i rischi sulla privacy e la sicurezza dei dati sanitari. Qualche mese fa, in Italia, il Garante della Privacy ha pubblicato un comunicato stampa per avvertire dei rischi nascosti nel dare a ChatGPT i referti dei propri esami medici, una pratica che sta diventando sempre più diffusa, anche in Italia.

10 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views