video suggerito
video suggerito
Google

Usare l’IA di Google per un consiglio di salute non sembra una buona idea: “Mette i pazienti a rischio”

Un’inchiesta pubblicata dal quotidiano The Guardian ha svelato come in almeno tre casi Google abbia dato informazioni sbagliate agli utenti che cercavano informazioni mediche.
A cura di Valerio Berra
5 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Il 2 gennaio il quotidiano britannico The Guardian ha pubblicato un’inchiesta sui consigli medici di AI Overview, la funzione di Google lanciata a marzo in cui viene fornita una sintesi delle nostre ricerche. Per intenderci, è quel breve testo che compare prima dell’elenco dei link quando cercate qualcosa. Ora, 9 giorni dopo quell’inchiesta, alcune delle risposte fornite da Google in campo medico sono sparite.

Partiamo dalle analisi. I giornalisti del The Guardian hanno verificato una serie di risposte su diversi temi. Hanno trovato alcuni casi in cui i consigli medici che venivano forniti andavano esattamente nel senso opposto a quelli che suggeriscono le direttive mediche.

Qualche esempio. Google avrebbe consigliato alle persone affette da tumore al pancreas di evitare cibi ricchi di grasso. Avrebbe dato informazioni false su come leggere le analisi della funzionalità epatica. E ancora, avrebbe sbagliato delle informazioni sui test per il cancro che potevano far sottovalutare dei sintomi ai pazienti.

L’intelligenza artificiale usata come medico di base

Una serie di errori insomma che possono diventare problematici, soprattutto in questo periodo. Chiedere informazioni mediche all’intelligenza artificiale è sempre più semplice. Se con AI Overview è possibile avere una risposta breve a domande mediche complesse, su Gemini si possono direttamente caricare i documenti delle analisi per chiedere consigli.

ChatGPT ha deciso di fare di più. Ha creato direttamente una versione di ChatGPT dedicata all’analisi dei dati sanitari. Si chiama ChatGPT Health ed è stata lanciata giusto il 7 gennaio. OpenAI, l’azienda che sviluppa ChatGPT, dice di aver lavorato con 260 medici di 60 Paesi per aggiustare i feedback dati dall’intelligenza artificiale.

La scelta di Google: rimossi i consigli segnalati

In un nuovo articolo pubblicato domenica 11 gennaio, il quotidiano The Guardian ha segnalato che Google ha iniziato a rimuovere alcuni consigli medici ritenuti non appropriati. Nello specifico sono stati eliminati i risultati di Google AI con due chiavi di ricerca: “Quali sono i livelli normali per gli esami del sangue del fegato” e “quali sono i livelli normali per i test di funzionalità epatica”:

Un portavoce di Google ha risposto così al The Guardian dopo la rimozione: “Non commentiamo le singole rimozioni all'interno della ricerca. Nei casi in cui le risposte di AI Overview non siano sufficientemente contestualizzate, lavoriamo per apportare miglioramenti di ampia portata e interveniamo sulla base delle nostre policy”.

5 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views