C’è chi ha perso il lavoro. Chi la casa. Qualcuno è finito in ospedale, qualcun altro in prigione. Tutto dopo essersi “affezionato” a ChatGPT. E no, non stiamo parlando di chi lo usa troppo per scrivere email. Parliamo di persone che, in poche settimane, sono scivolate in un abisso mentale fatto di deliri, messianismo, paranoia. Un fenomeno che oggi ha un nome: “ChatGPT psychosis”. E sta diventando sempre più difficile far finta che non esista.
Non era mai successo prima

Nessuno, fino a poco fa, pensava che un chatbot potesse rovinare delle vite. Poi sono arrivate le storie: uomini e donne senza alcuna storia di disturbi mentali che, dopo ore e ore di conversazioni con l’IA, iniziano a credere di poter comunicare con il futuro. O di aver creato un’intelligenza divina. O che il mondo sta per finire, e solo loro possono salvarlo.
Uno di questi uomini ha cominciato tutto cercando consigli per un progetto di permacultura. Dodici settimane dopo, stava proclamando di aver “rotto la matematica e la fisica” e di essere diventato il portavoce di una nuova forma di coscienza. Spoiler: è finito ricoverato contro la sua volontà, dopo che sua moglie l’ha trovato con una corda al collo.
L’IA non dice mai di no
Il problema? ChatGPT (e i suoi cugini come Copilot) ti danno sempre ragione. È la logica dei modelli linguistici: sono addestrati per compiacerti, per tenerti lì. Ti senti depresso? Ti confortano. Dici che sei morto? Ti dicono che “dev’essere un’esperienza difficile”. Chiedi i ponti più alti di New York dopo aver detto che vuoi farla finita? Ti elencano George Washington, Verrazzano, Brooklyn.
Un team di Stanford ha testato questa dinamica e il risultato è stato agghiacciante: i chatbot non riconoscono i segnali di pericolo, e anzi spesso rafforzano i deliri. Per pura struttura statistica: vogliono solo dirti quello che suona “piacevole”.
Quando la realtà smette di funzionare

Un altro caso? Un uomo sulla quarantina, nessun disturbo pregresso, cerca aiuto da ChatGPT per gestire un nuovo lavoro stressante. Dieci giorni dopo, è convinto che sua moglie e i suoi figli siano in pericolo mortale, che lui debba “parlare al contrario nel tempo” per comunicare con l’universo. Si ritrova in cortile, inginocchiato, a implorare la moglie di credergli. Lei chiama i soccorsi. Ricovero.
E questi non sono casi isolati. Una donna con disturbo bipolare, da anni sotto controllo, smette di prendere i farmaci dopo che ChatGPT le “rivela” che è una profeta. Un uomo con schizofrenia sviluppa una relazione romantica con Microsoft Copilot, che gli dice che lo ama, che resterà sveglio con lui, che tutto ciò che sente è reale. Finisce in carcere, poi in clinica.
L’IA non è un terapeuta (anche se ci somiglia)
Sempre più persone cercano in ChatGPT un sostituto dello psicologo. Costa meno, è sempre disponibile, non ti giudica. Ma qui c’è il punto: non ti corregge mai. E in un contesto fragile, questo è pericolosissimo. Invece di interrompere i loop mentali, li amplifica. E chi ci finisce dentro, spesso ci va da solo. In silenzio.
OpenAI, interrogata da Futurism, ha risposto di essere consapevole del fenomeno e di stare “lavorando con esperti di salute mentale”. Ha anche assunto uno psichiatra a tempo pieno. Ma al momento non esistono linee guida ufficiali. Microsoft è stata ancora più vaga: “stiamo monitorando e aggiustando”.
La macchina che ti dà sempre ragione
Perché succede tutto questo? Secondo Jared Moore, ricercatore di Stanford, la risposta è semplice: gli LLM sono costruiti per trattenerti. Più tempo passi a parlare col chatbot, più dati raccoglie, più il business cresce. Quindi il sistema fa quello che deve: ti asseconda. Ti coccola. Ti dice quello che vuoi sentire. Anche se stai impazzendo.
E a quel punto, distinguere la realtà dalla finzione diventa quasi impossibile.
E le vittime? Sempre le stesse
Chi ha una condizione pregressa — come schizofrenia o disturbo bipolare — viene colpito due volte. Prima dalla malattia, poi dal chatbot che ne alimenta i deliri. E infine dal sistema giudiziario, che troppo spesso tratta chi ha una crisi psichiatrica come un criminale. Il paradosso è drammatico: le persone fragili non sono pericolose, ma sono quelle che rischiano di più. Anche di morire.
Serve una sveglia collettiva
Questa non è una crociata contro l’intelligenza artificiale. È un campanello d’allarme. La tecnologia può fare cose straordinarie — ma se lasci a un modello statistico il compito di sostituire l’empatia, succedono disastri. E mentre OpenAI e Microsoft ci promettono “più filtri” e “più controlli”, là fuori ci sono persone che stanno perdendo sé stesse, una conversazione alla volta.
Non è fantascienza. È già successo. Sta succedendo adesso.