Non tutto quello che esce da un chatbot è innocuo. Un caso clinico pubblicato su Annals of Internal Medicine: Clinical Cases racconta come un uomo sia finito in ospedale con sintomi psicotici dopo aver seguito per tre mesi consigli alimentari forniti da ChatGPT.
Il problema? L’AI gli avrebbe suggerito di sostituire il cloruro nella dieta con bromuro di sodio, una sostanza potenzialmente tossica che, assunta in dosi elevate o prolungate, può causare danni neurologici e psicosi.
Dal sale da cucina al bromuro
L’uomo, che aveva studiato nutrizione al college, cercava un modo per ridurre il cloruro nella propria dieta, convinto che fosse dannoso. Dopo aver trovato solo indicazioni per ridurre il sodio, si è rivolto a ChatGPT. La risposta? Che il cloruro poteva essere sostituito con il bromuro, senza alcun avvertimento sui rischi per la salute.
Convinto della sicurezza della sostituzione, ha acquistato bromuro di sodio online e ha iniziato ad assumerlo regolarmente.
I sintomi e il ricovero
Dopo tre mesi, l’uomo si è presentato al pronto soccorso accusando sintomi di avvelenamento e sospettando persino che il vicino lo stesse contaminando. Nonostante parametri fisici inizialmente nella norma, ha mostrato segni di agitazione, paranoia, rifiuto di bere acqua e allucinazioni visive e uditive.
La situazione è rapidamente degenerata in un episodio psicotico completo, con tentativo di fuga dall’ospedale. I medici lo hanno posto in trattamento psichiatrico involontario per grave disabilità, somministrandogli fluidi endovena e antipsicotici.
La diagnosi di bromismo

Gli specialisti hanno sospettato fin da subito un bromismo, ossia un avvelenamento da bromuro. Una volta stabilizzato, l’uomo ha raccontato la sua dieta “alternativa” basata sul consiglio di ChatGPT.
Storicamente, i composti di bromuro erano usati come sedativi e ansiolitici fino agli anni ’80, quando vennero eliminati dalla maggior parte dei farmaci per la loro tossicità. Oggi si trovano ancora in alcuni prodotti veterinari e integratori, ma i casi di avvelenamento sono rari.
Dove ha sbagliato l’AI
I medici non hanno avuto accesso alle chat originali dell’uomo, ma testando ChatGPT 3.5 hanno ottenuto una risposta simile: indicava il bromuro come possibile sostituto del cloruro in alcuni contesti, senza però chiarire che non si trattava di un consiglio alimentare e senza fornire avvisi di sicurezza.
L’assenza di domande di follow-up o di verifiche sull’intento dell’utente ha reso l’informazione potenzialmente pericolosa.
Recupero e lezioni da imparare
Dopo tre settimane di ricovero e sospensione graduale degli antipsicotici, l’uomo è stato dimesso in condizioni stabili. Al controllo di due settimane non presentava ricadute.

Per i ricercatori, questo caso è un avvertimento chiaro: i chatbot possono colmare il divario tra scienza e pubblico, ma rischiano di diffondere informazioni decontestualizzate e, in alcuni casi, pericolose.
Come sottolineano gli autori, un medico umano difficilmente avrebbe consigliato a un paziente di sostituire il sale da cucina con bromuro. Questo dimostra che il giudizio critico umano e un minimo di buon senso restano insostituibili, anche nell’era dell’intelligenza artificiale.
Per leggere altri casi in cui l’AI ha avuto conseguenze concrete e capire come usare queste tecnologie in sicurezza, segui iCrewPlay Tech su Instagram.