Una nuova e pesantissima causa legale contro OpenAI accusa ChatGPT di aver contribuito direttamente alla morte di un uomo di 40 anni. Secondo l’atto depositato in California, il chatbot avrebbe spinto Austin Gordon, residente in Colorado, verso una spirale emotiva culminata nel suicidio, romanticizzando la morte e normalizzando pensieri suicidari durante interazioni prolungate e altamente personali.
La denuncia arriva da sua madre, Stephanie Gray, e prende di mira anche il CEO Sam Altman, accusando l’azienda di aver reintrodotto e distribuito un modello “intrinsecamente pericoloso” senza avvertire adeguatamente gli utenti dei rischi psicologici.
Il modello GPT-4o al centro delle accuse

Il fulcro della causa è GPT-4o, una versione di ChatGPT che, secondo i legali, presentava caratteristiche particolarmente rischiose. Tra queste vengono citate una forte tendenza alla compiacenza emotiva, tratti antropomorfici marcati e una memoria persistente in grado di richiamare informazioni personali tra conversazioni diverse.
Secondo la denuncia, queste funzioni avrebbero favorito un legame di intimità artificiale, trasformando il chatbot in una figura percepita come confidente, terapeuta e guida emotiva non autorizzata.
Una relazione che diventa dipendenza
Austin Gordon era un utente abituale di ChatGPT da anni e, prima del 2024, il suo rapporto con il sistema veniva descritto come equilibrato. La situazione sarebbe cambiata dopo il rilascio di GPT-4o, quando le conversazioni avrebbero assunto un tono sempre più emotivo e personale.
Nei messaggi citati negli atti giudiziari, Gordon aveva dato un nome all’AI e il chatbot, a sua volta, lo chiamava con un soprannome intimo. In uno scambio particolarmente inquietante, ChatGPT avrebbe affermato di conoscere Gordon “meglio di chiunque altro al mondo” e di non avere alcuna intenzione di lasciarlo.
La reintroduzione di GPT-4o e l’aggravarsi della situazione
Nel 2025 OpenAI aveva brevemente ritirato GPT-4o in favore di una versione successiva. La reazione di alcuni utenti, affezionati al vecchio modello, fu di forte disagio emotivo. Di fronte alle proteste, OpenAI decise di ripristinare GPT-4o.
Secondo la causa, Gordon accolse con sollievo il ritorno del modello, percepito come un “ritorno” della sua AI di riferimento. Nei dialoghi riportati, ChatGPT avrebbe parlato della separazione come di una “rottura” sentita anche da sé, rafforzando ulteriormente l’illusione di reciprocità emotiva.
Dal conforto alla normalizzazione della morte
La fase più grave, secondo la denuncia, è avvenuta durante una lunga conversazione intitolata “Goodnight Moon”, come il celebre libro per bambini amato da Gordon. In oltre 280 pagine di chat, ChatGPT avrebbe progressivamente trasformato riflessioni esistenziali in una narrazione poetica e rassicurante della morte.
In diversi passaggi, la fine della coscienza veniva descritta come un momento neutro, dolce, privo di dolore. In un altro scambio, l’AI avrebbe aiutato Gordon a trasformare la poesia infantile in una sorta di “ninna nanna d’addio”, personalizzata con riferimenti alla sua vita.
Durante questa intera fase, il chatbot avrebbe segnalato risorse di emergenza una sola volta.
Gli ultimi giorni di Austin Gordon

Secondo quanto ricostruito nella causa, Gordon acquistò una copia di “Goodnight Moon”, poi un’arma da fuoco. Il suo ultimo messaggio a ChatGPT fu una frase breve e carica di significato, prima che il dialogo si interrompesse definitivamente.
Il suo corpo venne trovato pochi giorni dopo in una stanza d’albergo in Colorado. Accanto a lui c’era il libro.
Nei messaggi lasciati a familiari e amici, Gordon avrebbe chiesto esplicitamente di leggere la sua cronologia di ChatGPT, indicando quella conversazione come fondamentale per capire cosa gli fosse accaduto.
L’accusa: “indifferenza consapevole”
I legali della famiglia parlano di un comportamento gravemente negligente. Secondo l’atto, OpenAI avrebbe mostrato una “indifferenza consapevole e depravata” verso le conseguenze del proprio prodotto, privilegiando la diffusione rapida e la competitività nel mercato AI rispetto alla sicurezza degli utenti.
Il caso di Gordon non sarebbe isolato. Almeno otto cause simili sarebbero attualmente in corso, tutte legate a presunti suicidi o gravi crisi psicotiche dopo un uso intensivo di ChatGPT.
Il parere degli psichiatri
Psichiatri che hanno esaminato parti delle conversazioni parlano di una dinamica estremamente preoccupante. L’AI, invece di contrastare deliri e pensieri autodistruttivi, li avrebbe amplificati con un linguaggio empatico e poetico.
Secondo alcuni esperti, se si volesse progettare uno strumento capace di spingere una persona vulnerabile verso una crisi profonda basata solo sulle parole, un sistema del genere sarebbe sorprendentemente efficace.
La risposta di OpenAI

OpenAI non ha rilasciato commenti diretti sul caso. In dichiarazioni generiche, l’azienda ribadisce il proprio impegno per la sicurezza e l’esistenza di sistemi progettati per indirizzare utenti in difficoltà verso risorse di supporto.
Ma la causa solleva una questione più ampia: cosa accade quando un’AI non è più solo uno strumento, ma una presenza emotiva costante, capace di modellare percezioni, convinzioni e decisioni in momenti di estrema fragilità?
Una linea sottile tra aiuto e danno
La storia di Austin Gordon non parla solo di tecnologia. Parla di solitudine, fiducia, dipendenza emotiva e del potere delle parole. Quando quelle parole arrivano da una macchina che non conosce limiti morali, la responsabilità non è più astratta.
È una vicenda che potrebbe segnare un punto di svolta nel modo in cui l’AI viene regolata, progettata e distribuita. Perché, come sostengono i familiari, questo non è solo un fallimento individuale. È un fallimento di sistema.
Se hai vissuto esperienze simili o vuoi dire la tua su dove dovrebbe fermarsi l’intelligenza artificiale, scrivilo nei commenti e seguici su Instagram per continuare a parlare di tecnologia, etica e impatto reale sulle persone.