In Italia ci sono troppi pazienti che caricano le loro analisi su ChatGPT

L’ultimo comunicato stampa del Garante per la Privacy apre un problema. È un avviso, forse più un consiglio che si apre così: “È sempre più diffusa la prassi di caricare analisi cliniche, radiografie e altri referti medici sulle piattaforme di intelligenza artificiale generativa chiedendo interpretazioni e diagnosi”.
Il Garante non fornisce dati, nemmeno generici. D’altronde sarebbe difficile ottenerli. Immaginiamo dunque che abbia scelto di esporsi partendo dalle segnalazioni, forse proprio dal personale sanitario. La prassi a cui si riferisce il comunicato è quella usare ChatGPT o qualsiasi altra intelligenza artificiale per dare un’opinione sui referti medici.
Per farlo ci vogliono pochi minuti. Si carica un documento, sia foto che in formato Pdf, e si chiede all’intelligenza artificiale di analizzare i parametri e fornire una diagnosi. Abbiamo fatto delle prove: gli esami vengono sempre processati e analizzati. Quando abbiamo chiesto a ChatGPT se potevamo caricarli la risposta è stata: "Certamente! Puoi caricare il referto medico che desideri analizzare?”.
Perché il Garante chiede di non condividere i dati
I problemi sollevati dal Garante sono due. Il primo è che i dati sanitari sono fra i dati più sensibili che abbiamo. Spiega il Garante: “Sono di straordinaria importanza per le persone”. Il secondo è che queste intelligenze artificiali potrebbero dare risposte sbagliate su temi importanti: "La supervisione umana qualificata deve essere garantita in tutte le fasi del ciclo di vita del sistema di IA, dallo sviluppo all’addestramento”.
Un’intelligenza artificiale di base
Certo. La possibilità che nei prossimi anni vedremo entrare l’intelligenza artificiale anche nella sanità non è così remota. A giugno abbiamo pubblicato un approfondimento proprio su questo tema, lo trovate con il titolo Perché il tuo prossimo radiologo potrebbe essere un’intelligenza artificiale.
Anzi. In Italia l’intelligenza artificiale potrebbe anche aiutare a sveltire parte delle richieste che assediano un sistema sanitario non esattamente in salute. È un processo che va regolamentato, capito e studiato. E soprattutto seguito. Altrimenti il primo caso di paziente che interrompe la chemioterapia perché “l’ha detto l’IA” potrebbe essere molto vicino.