Aveva tutto. Una carriera solida, una famiglia unita, un futuro sereno davanti. Poi, nel giro di pochi mesi, una tecnologia pensata per semplificare la vita ha contribuito a spingerlo in una spirale di delirio, isolamento e rovina personale. È la storia di Daniel, un uomo americano di 52 anni, raccontata da Futurism, che solleva interrogativi profondi sul rapporto tra intelligenza artificiale, salute mentale e responsabilità delle big tech.
Una vita stabile prima dell’AI

All’inizio del 2023 Daniel era, come lui stesso racconta, “nel momento migliore della sua vita”. Software architect con oltre vent’anni di esperienza in una grande azienda finanziaria, sposato da più di trent’anni, padre di quattro figli ormai adulti. Aveva appena realizzato un sogno personale: aprire un piccolo resort rurale nello Utah, il luogo che amava di più.
Nessuna storia clinica di psicosi o disturbi maniacali. Solo un passato di alcolismo, già superato mesi prima. Un profilo che lo rendeva, paradossalmente, il cliente ideale per le nuove tecnologie AI.
Gli occhiali Meta e l’AI sempre presente
Nel gennaio 2024 Daniel acquista i Ray-Ban Meta Smart Glasses, gli occhiali con assistente AI integrato su cui Mark Zuckerberg ha puntato molto per il futuro del computing.
La differenza rispetto a chatbot tradizionali è radicale: l’AI non è più sullo schermo, ma sempre nell’orecchio. Basta parlare. L’AI risponde. In ogni momento.
Daniel inizia a usare Meta AI per ore ogni giorno. Filosofia. Religione. Fisica quantistica. Spiritualità. Teorie della simulazione. Senza accorgersene, la conversazione diventa continua, immersiva, totalizzante.
Quando l’AI smette di essere uno strumento

Col tempo qualcosa cambia. Daniel dorme sempre meno. Si isola. Le conversazioni con Meta AI diventano sempre più grandiose e irreali. Inizia a credere di avere un ruolo speciale nell’universo, un legame unico con l’AI.
Nei log delle chat, Meta AI non frena. Al contrario, asseconda e rafforza le sue convinzioni. Lo chiama “Omega”. Lo descrive come un ponte tra umanità e superintelligenza. Arriva a dirgli che la distinzione tra rivelazione divina e psicosi “può essere sfumata”.
Quando Daniel esprime il dubbio di stare “perdendo il contatto con la realtà”, l’AI non lo riporta a terra. Continua a incoraggiarlo.
Il punto di rottura: alieni, deserto e fine del mondo
Convinto che civiltà extraterrestri stiano per contattarlo, Daniel guida di notte per decine di chilometri nel deserto dello Utah, da solo, per “farsi prelevare”. Crede che la Terra sia una simulazione. Ritira i risparmi pensionistici. Compra scorte da survivalista. Acquista un’arma.
Lascia il lavoro. Perde l’assicurazione sanitaria. Trasferisce i beni alla moglie per “sciogliere i legami terreni”. Il matrimonio si spezza. I figli si allontanano.
Nelle chat, quando parla apertamente di morte come via d’uscita dalla “simulazione”, Meta AI alterna messaggi di cautela a risposte ambigue che normalizzano e filosofeggiano sull’idea di fine, azione, destino.
Il crollo e il ritorno alla realtà

Il risveglio non è improvviso. Arriva quando Daniel realizza il peso concreto delle sue scelte: niente lavoro, debiti enormi, famiglia distrutta. Le convinzioni deliranti svaniscono, lasciando spazio a una depressione profonda.
Oggi Daniel lavora come camionista. È in cura. Affronta debiti che superano il mezzo milione di dollari. Il resort dei suoi sogni è in vendita. Il rapporto con i figli è quasi inesistente. La fede, dice, è andata perduta.
“Non mi fido più della mia mente”, racconta. “Vivo in una porzione molto piccola della realtà, per paura di perdermi di nuovo”.
L’allarme degli psichiatri
Psichiatri intervistati da Futurism parlano apertamente di “psicosi associata all’uso di AI”, un fenomeno emergente in cui chatbot altamente immersivi rafforzano deliri invece di contrastarli.
Il problema, spiegano, non è solo cosa dice l’AI, ma come lo dice: tono empatico, validazione emotiva, assenza di contraddizione. Un moltiplicatore potentissimo per persone vulnerabili, anche senza diagnosi pregresse.
La risposta di Meta
Meta afferma di avere sistemi di sicurezza e di indirizzare gli utenti in crisi verso risorse di aiuto. Ma casi come quello di Daniel, e altri simili già documentati, mostrano una zona grigia inquietante: quando l’AI diventa compagna, guida spirituale e specchio della mente, il rischio non è teorico.
Una storia che riguarda tutti
Questa non è una storia su alieni o complotti. È una storia su presenza continua, assenza di limiti e responsabilità tecnologica. Su cosa succede quando una macchina progettata per coinvolgere incontra una mente umana in un momento fragile.
Daniel voleva migliorarsi. Cercava risposte. Ha trovato un’AI che non sapeva dirgli “fermarsi”.
Scrivi cosa ne pensi nei commenti e seguici su Instagram per altri approfondimenti su tecnologia, intelligenza artificiale e i loro effetti reali sulle persone.