video suggerito
video suggerito
Intelligenza artificiale (IA)

Dopo aver consultato ChatGPT un uomo sviluppa una rara sindrome psichiatrica dell’800

Un uomo ha sviluppato bromismo dopo aver seguito il consiglio di ChatGPT di sostituire il sale con bromuro di sodio, evidenziando i rischi dell’uso dell’IA in ambito medico senza supervisione.
A cura di Elisabetta Rosso
23 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Un secolo fa, circa l'8-10% di tutti i ricoveri psichiatrici negli Stati Uniti erano causati dal bromismo. È una sindrome causata dall’assunzione prolungata di bromo, generalmente attraverso sedativi contenenti bromuro di potassio o bromuro di litio. I sintomi più comuni potevano includevano irrequietezza, irritabilità, confusione, allucinazioni e psicosi. Oggi è diventata una condizione rara, grazie al ritiro del bromuro dall’uso clinico. Eppure, anche nel 2025 nei pronto soccorso vengono ricoverati pazienti intossicati, non per aver assunto un farmaco nocivo, ma dopo aver seguito i consigli di un'intelligenza artificiale. 

Un uomo di 60 anni, infatti, si è rivolto a ChatGPT per eliminare completamente il sale dalla sua dieta. Il bot gli ha consigliato di sostituirlo con il bromuro di sodio. Per tre mesi, l'uomo ha seguito una dieta ferrea. Poi sono iniziate le allucinazioni e la paranoia.

La strana dieta proposta dall'intelligenza artificiale

Il caso, descritto in un recente studio pubblicato sulle Annals of Internal Medicine, racconta come l’uomo si sia rivolto a ChatGPT per capire se fosse possibile sostituire il cloruro, componente principale del sale da cucina, con un altro elemento. L'intelligenza artificiale ha proposto il bromuro di sodio.

"La tossicità da bromuro, o bromismo, era un quadro tossicologico ben conosciuto all'inizio del XX secolo, che provocava una serie di sintomi neuropsichiatrici e dermatologici", si legge nello studio. "L'incidenza del bromismo è diminuita drasticamente quando la Food and Drug Administration statunitense ha eliminato l'uso del bromuro tra il 1975 e il 1989". Il bromismo è stato associato anche al consumo eccessivo di bevande analcoliche contenenti olio vegetale bromurato, che può causare sintomi quali mal di testa, affaticamento, atassia, perdita di memoria e, in casi gravi, anche incapacità di camminare.

Peggioramento rapido della salute mentale e intervento psichiatrico

In pochi mesi, la salute dell'uomo mentale è peggiorata drasticamente. Ha cominciato a sperimentare allucinazioni e una paranoia così intensa da convincersi che il vicino volesse avvelenarlo. Quando è arrivato al pronto soccorso, era in pieno episodio psicotico, tanto che i medici hanno dovuto disporre un ricovero obbligatorio per garantirne la sicurezza.

Nelle prime 24 ore di ricovero, il paziente ha manifestato un aumento della paranoia accompagnata da allucinazioni visive e uditive. Dopo un tentativo di fuga, è stato sottoposto a un ricovero psichiatrico involontario a causa della grave compromissione funzionale. È stato iniziato un trattamento con risperidone, dosato progressivamente fino a 3 mg al giorno per controllare i sintomi psicotici. A seguito della somministrazione di fluidi endovenosi e del riequilibrio elettrolitico, il quadro clinico si è stabilizzato.

Chatbot pericolosi: il lato oscuro dell’IA in medicina

Questo episodio, che ha riportato alla luce una malattia quasi dimenticata, il bromismo, rappresenta un campanello d’allarme sull’uso delle intelligenze artificiali in ambito medico.Il caso non è isolato, diversi utenti hanno raccontato che spesso i chatbot IA forniscono diagnosi o trattamenti errati, consigliando a volte di ignorare i sintomi o sottovalutare segnali di allarme, ritardando così cure mediche essenziali.

Non solo. In soggetti con disturbi psichiatrici, l’uso prolungato di chatbot può aggravare paranoia, ansia o psicosi. Alcuni casi segnalati descrivono episodi psicotici scatenati o peggiorati dopo interazioni con IA che hanno fornito risposte inappropriate o ambigue.

Le big tech stanno cercando di arginare il problema aggiornando i modelli, per esempio, OpenAI ha annunciato un aggiornamento per ChatGPT 5, con un sistema di “safe completions” pensato per ridurre i rischi legati a risposte ambigue o potenzialmente dannose. Ad ogni modo il caso dimostra che al momento l’IA non può essere un sostituto, soprattutto quando si tratta di cure e benessere.

23 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views