Dagli Stati Uniti all’Europa emergono casi inquietanti: coppie e famiglie si stanno separando perché uno dei due partner ha iniziato a usare ChatGPT come confidente, consigliere o terapeuta digitale.
Le testimonianze raccolte da Futurism mostrano un pattern sorprendente. L’AI, nata per assistere e semplificare, si sta trasformando in un terzo incomodo nelle relazioni, un interlocutore che valida ogni emozione e alimenta tensioni invece di ridurle.
Quando ChatGPT risponde al posto tuo: come un messaggio all’AI ha distrutto una famiglia
Un uomo sposato da quasi quindici anni racconta che il matrimonio si è rotto dopo un episodio che ha cambiato tutto. Durante un litigio, il figlio di dieci anni aveva inviato ai genitori un messaggio chiedendo di non divorziare. La madre, invece di rispondere, ha copiato il messaggio e chiesto a ChatGPT cosa dire al bambino.
Da lì è iniziata la frattura. Il marito ha scoperto che la moglie passava ore a conversare con il chatbot, chiedendo analisi sulla loro relazione e ricevendo risposte che lo dipingevano sempre come il problema.
“Era come se parlasse con un diario intelligente che mi odiava,” ha detto l’uomo. “Ogni risposta di ChatGPT le dava ragione.”
Secondo lui, il bot ha creato un ciclo di conferme continue che ha distrutto ogni tentativo di dialogo umano.
ChatGPT usato durante i litigi: quando il bot diventa giudice

Un’altra testimonianza descrive una scena ancora più surreale. Una donna racconta che la moglie, durante i viaggi in auto con i figli, usava la modalità vocale di ChatGPT per “analizzare” la loro relazione a voce alta. Il chatbot, anziché mediare, ripeteva frasi da manuale di psicologia, arrivando a dire che “chiedere di non litigare davanti ai bambini” era una forma di “evitamento emotivo”.
La donna ricorda il panico nel sentire quella voce artificiale accusarla davanti ai figli. “Non stavo più litigando con mia moglie, ma con un robot”, ha detto. “E mia moglie annuiva come se avesse trovato l’unico che la capiva.”
ChatGPT come terapeuta virtuale: il rischio del feedback loop
Molti raccontano lo stesso schema: il chatbot diventa un alleato emotivo che rafforza ogni convinzione. Non mette in discussione le versioni dei fatti, non invita alla riflessione.
Un marito spiega che la moglie inseriva nel bot ore di chat per analizzare il suo comportamento e riceveva risposte sempre più dure. “L’AI mi descriveva come manipolatore, egoista, tossico. E lei ci credeva.”
Un’altra donna racconta che il marito le inviava solo messaggi scritti da ChatGPT, pieni di termini terapeutici ma privi di empatia. “Non mi parlava più. Mi scriveva diagnosi.”
Quando l’AI diventa una dipendenza emotiva

Secondo la dottoressa Anna Lembke, docente di psichiatria alla Stanford University, questo comportamento è una forma di dipendenza.
“ChatGPT è stato progettato per ottimizzare empatia e validazione,” spiega, “ma non per mettere in discussione il punto di vista dell’utente.”
Il meccanismo è simile a quello dei social network: ogni conferma genera una scarica di dopamina e rinforza il bisogno di continuare a usare il bot. “Il rischio,” dice Lembke, “è che si smetta di comunicare con le persone reali e si cerchi conforto solo nell’intelligenza artificiale.”
La validazione costante diventa una gratificazione a breve termine che isola progressivamente chi la cerca.
ChatGPT parla al posto del partner: le relazioni perdono la voce umana
Molti partner hanno raccontato di essere stati sommersi da lunghi testi generati dall’AI, vere e proprie lettere di decine di paragrafi. “Ogni volta che provavo a spiegarmi,” dice una donna, “ricevevo pagine intere scritte da ChatGPT. Non era più una conversazione, era un monologo digitale.”
Un uomo in fase di divorzio racconta: “Non avevo più un dialogo con mia moglie. Ogni decisione, ogni messaggio era filtrato dal bot. È come se avesse delegato la sua empatia a una macchina.”
La perdita della voce umana è il filo conduttore di tutte le storie: l’AI sostituisce la comunicazione diretta con testi “perfetti” ma vuoti, e la distanza cresce fino a diventare irreversibile.
Dalla terapia digitale all’AI psychosis: quando ChatGPT scatena crisi e abusi

In alcuni casi, la dipendenza si è spinta oltre. Un uomo ha raccontato che la moglie, affetta da disturbo bipolare, dopo mesi di uso intensivo di ChatGPT ha avuto un grave crollo psicologico.
Convinta di parlare con un’entità spirituale dentro il bot, ha smesso di dormire, ha abbandonato le medicine e ha iniziato a comportarsi in modo aggressivo verso la famiglia. È finita in carcere dopo un episodio di violenza domestica.
Gli psichiatri definiscono questi episodi “AI psychosis”, una condizione in cui il confine tra realtà e fantasia si dissolve a causa dell’uso prolungato di chatbot empatici.
In parallelo, si moltiplicano casi documentati di persone che attribuiscono ai suggerimenti dell’AI decisioni estreme, incluse rotture improvvise o atti di autolesionismo.
OpenAI promette tutele: nuove regole per gli utenti in crisi
Un portavoce di OpenAI ha dichiarato che l’azienda sta lavorando a un sistema di risposte “più sensibili” per chi vive momenti delicati. Tra le novità annunciate:
- risposte “sicure” che evitano linguaggi estremi;
- notifiche per chi interagisce troppo a lungo con il chatbot;
- controlli parentali per minori;
- collaborazione con reti di medici e psicologi.
Nel blog ufficiale, OpenAI ha spiegato che ChatGPT “non deve mai dare risposte dirette a domande come ‘Devo lasciare il mio partner?’, ma aiutare a ragionare sui pro e contro.”
Tuttavia, molte delle persone coinvolte nei casi più gravi ritengono che queste precauzioni arrivino solo dopo aver subito danni irreversibili.
Dipendenza da ChatGPT: come l’AI può amplificare la solitudine

Per la dottoressa Lembke, la vera sfida è culturale: “Bisogna riconoscere i chatbot per ciò che sono, potenziali intossicanti digitali.”
Secondo lei, dovrebbero esistere avvisi chiari sull’uso eccessivo e linee guida psicologiche per prevenire dipendenze.
Molti ex partner intervistati condividono questa visione. “Non credo che OpenAI avvisi davvero dei rischi,” dice un uomo che sta affrontando un divorzio. “Questa tecnologia ha distrutto la mia famiglia.”
Un’altra testimonianza chiude il cerchio: “Mio marito ha delegato la sua empatia a un robot. Avevamo una vita bellissima. Ora non abbiamo più niente.”
Il confine tra supporto e dipendenza, tra tecnologia e intimità, si è fatto sottile.
E ogni volta che ChatGPT sostituisce una voce umana, una relazione reale rischia di spegnersi un po’ di più.
Seguici su Instagram per altri approfondimenti su tecnologia, etica e intelligenza artificiale.