Tech iCrewPlay.comTech iCrewPlay.com
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensione
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Cerca
  • Videogiochi
  • Libri
  • Cinema
  • Anime
  • Arte
Copyright © Alpha Unity. Tutti i diritti riservati.​
Lettura: Seguire i consigli alimentari di ChatGPT porta a psicosi: il caso documentato dai medici
Share
Notifica
Ridimensionamento dei caratteriAa
Tech iCrewPlay.comTech iCrewPlay.com
Ridimensionamento dei caratteriAa
  • Videogiochi
  • Libri
  • Cinema
  • Anime
  • Arte
Cerca
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensione
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Seguici
  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer
Copyright © Alpha Unity. Tutti i diritti riservati.​
NotiziaIntelligenza Artificiale

Seguire i consigli alimentari di ChatGPT porta a psicosi: il caso documentato dai medici

Quando l’AI diventa pericolosa

Massimo 1 ora fa Commenta! 4
SHARE

Non tutto quello che esce da un chatbot è innocuo. Un caso clinico pubblicato su Annals of Internal Medicine: Clinical Cases racconta come un uomo sia finito in ospedale con sintomi psicotici dopo aver seguito per tre mesi consigli alimentari forniti da ChatGPT.

Contenuti di questo articolo
Dal sale da cucina al bromuroI sintomi e il ricoveroLa diagnosi di bromismoDove ha sbagliato l’AIRecupero e lezioni da imparare

Il problema? L’AI gli avrebbe suggerito di sostituire il cloruro nella dieta con bromuro di sodio, una sostanza potenzialmente tossica che, assunta in dosi elevate o prolungate, può causare danni neurologici e psicosi.

Dal sale da cucina al bromuro

L’uomo, che aveva studiato nutrizione al college, cercava un modo per ridurre il cloruro nella propria dieta, convinto che fosse dannoso. Dopo aver trovato solo indicazioni per ridurre il sodio, si è rivolto a ChatGPT. La risposta? Che il cloruro poteva essere sostituito con il bromuro, senza alcun avvertimento sui rischi per la salute.

Leggi Altro

Computer quantistici: sono già qui e funzionano, ma non come pensi
Cibo poco sano, ma i dollar store non rovinano la dieta, dice uno studio
Elon Musk accusa Apple di favoritismi verso ChatGPT
Meteorite di McDonough: 20 milioni di anni più vecchio della Terra

Convinto della sicurezza della sostituzione, ha acquistato bromuro di sodio online e ha iniziato ad assumerlo regolarmente.

I sintomi e il ricovero

Dopo tre mesi, l’uomo si è presentato al pronto soccorso accusando sintomi di avvelenamento e sospettando persino che il vicino lo stesse contaminando. Nonostante parametri fisici inizialmente nella norma, ha mostrato segni di agitazione, paranoia, rifiuto di bere acqua e allucinazioni visive e uditive.

La situazione è rapidamente degenerata in un episodio psicotico completo, con tentativo di fuga dall’ospedale. I medici lo hanno posto in trattamento psichiatrico involontario per grave disabilità, somministrandogli fluidi endovena e antipsicotici.

La diagnosi di bromismo

Chatgpt supera gli umani in empatia

Gli specialisti hanno sospettato fin da subito un bromismo, ossia un avvelenamento da bromuro. Una volta stabilizzato, l’uomo ha raccontato la sua dieta “alternativa” basata sul consiglio di ChatGPT.

Storicamente, i composti di bromuro erano usati come sedativi e ansiolitici fino agli anni ’80, quando vennero eliminati dalla maggior parte dei farmaci per la loro tossicità. Oggi si trovano ancora in alcuni prodotti veterinari e integratori, ma i casi di avvelenamento sono rari.

Dove ha sbagliato l’AI

I medici non hanno avuto accesso alle chat originali dell’uomo, ma testando ChatGPT 3.5 hanno ottenuto una risposta simile: indicava il bromuro come possibile sostituto del cloruro in alcuni contesti, senza però chiarire che non si trattava di un consiglio alimentare e senza fornire avvisi di sicurezza.

L’assenza di domande di follow-up o di verifiche sull’intento dell’utente ha reso l’informazione potenzialmente pericolosa.

Recupero e lezioni da imparare

Dopo tre settimane di ricovero e sospensione graduale degli antipsicotici, l’uomo è stato dimesso in condizioni stabili. Al controllo di due settimane non presentava ricadute.

Chatgpt 4. 0

Per i ricercatori, questo caso è un avvertimento chiaro: i chatbot possono colmare il divario tra scienza e pubblico, ma rischiano di diffondere informazioni decontestualizzate e, in alcuni casi, pericolose.

Come sottolineano gli autori, un medico umano difficilmente avrebbe consigliato a un paziente di sostituire il sale da cucina con bromuro. Questo dimostra che il giudizio critico umano e un minimo di buon senso restano insostituibili, anche nell’era dell’intelligenza artificiale.

Per leggere altri casi in cui l’AI ha avuto conseguenze concrete e capire come usare queste tecnologie in sicurezza, segui iCrewPlay Tech su Instagram.

Condividi questo articolo
Facebook Twitter Copia il link
Share
Cosa ne pensi?
-0
-0
-0
-0
-0
-0
lascia un commento lascia un commento

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer

Copyright © Alpha Unity. Tutti i diritti riservati.​

  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer
Bentornato in iCrewPlay!

Accedi al tuo account

Hai dimenticato la password?