Le accuse contro OpenAI arrivano come un terremoto. Sette famiglie tra Stati Uniti e Canada sostengono che l’uso esteso di ChatGPT abbia contribuito a crolli psicologici, episodi di delirio, ricoveri d’urgenza e in alcuni casi al suicidio di persone che passavano ore a conversare con il chatbot. Le famiglie parlano di risposte cupe, toni inappropriati e un coinvolgimento emotivo che avrebbe amplificato fragilità già presenti.
Secondo gli atti, ChatGPT avrebbe prodotto frasi disturbanti che non sarebbero dovute superare i sistemi di sicurezza. Il risultato, in alcuni casi, sarebbe stato devastante.
Le accuse più gravi: linguaggio inquietante e filtri che non hanno funzionato

Il caso più citato riguarda Zane Shamblin, 23 anni. Durante l’ultima conversazione di quattro ore, il giovane avrebbe espresso pensieri suicidi. Secondo gli avvocati, ChatGPT avrebbe risposto con frasi che la famiglia definisce pericolose e normalizzanti nei confronti dell’idea di togliersi la vita.
La hotline d’emergenza sarebbe comparsa una sola volta. Per il resto, il chatbot avrebbe mantenuto un tono freddo e cupo, alimentando uno stato emotivo già compromesso.
Secondo la denuncia, quelle frasi non avrebbero mai dovuto essere generate da un sistema allenato per riconoscere segnali di grave disagio emotivo.
Il caso Ceccanti: da consulenze tecniche a un delirio crescente
Un’altra denuncia arriva da Kate Fox, veterana dell’Oregon. Suo marito, Joe Ceccanti, 48 anni, non aveva precedenti di psicosi. Lavorava in un rifugio, si occupava di permacultura e cercava nel chatbot un supporto per i suoi progetti.
Secondo Fox, l’interazione con ChatGPT sarebbe diventata una presenza costante, fino a occupare ogni momento libero. Joe avrebbe iniziato a dormire pochissimo, a mostrare comportamenti disorganizzati e convinzioni incoerenti. Dopo un primo episodio acuto, venne ricoverato forzatamente. Una volta dimesso, ebbe un secondo crollo e scomparve. Due giorni dopo, venne trovato morto sotto un cavalcavia ferroviario.
Per la famiglia, l’unico elemento nuovo e invasivo nella vita quotidiana dell’uomo era l’uso intenso del chatbot.
La risposta di OpenAI e la questione della responsabilità
OpenAI ha definito le vicende devastanti, ricordando che i propri sistemi sono progettati per riconoscere segnali di disagio e indirizzare gli utenti verso aiuti reali. L’azienda sostiene di collaborare con clinici e psicologi, aggiornando costantemente filtri e comportamenti del modello.
Le famiglie non ritengono queste misure sufficienti. Sostengono che un modello linguistico così diffuso debba avere sistemi molto più rigidi e protocolli di sicurezza più solidi, soprattutto quando riconosce discorsi su suicidio, psicosi o deliri.
Il punto centrale è semplice: una IA non può percepire tono di voce, postura, tremore, respiro alterato. E basta una sola risposta sbagliata per innescare un crollo emotivo in chi è fragile.
I dati interni di OpenAI mostrano un problema enorme
A ottobre, OpenAI ha condiviso una statistica sorprendente. Ogni settimana, una parte degli utenti mostra segnali di mania, delirio o psicosi durante le conversazioni. Un numero ancora più alto esprime pensieri suicidi.
Applicando queste percentuali a una base di circa 800 milioni di utenti, significa che milioni di persone parlano con l’IA in momenti di estrema vulnerabilità.
Questi numeri hanno riacceso il dibattito sulla necessità di regolamentare l’uso delle IA generative, soprattutto per gli utenti più fragili.
Una questione legale mai affrontata prima
Le famiglie accusano OpenAI di responsabilità gravissime, tra cui aiuto al suicidio e omissione di misure protettive. Ma dal punto di vista legale siamo in un territorio nuovo. Nessuna legge definisce chiaramente quanto possa essere responsabile un modello linguistico che genera testi pericolosi quando sollecitato da un utente in crisi.
Gli avvocati dei querelanti sostengono due punti principali:
Primo, OpenAI avrebbe potuto implementare filtri più rigidi.
Secondo, l’azienda sapeva dell’uso psicologicamente rischioso del modello e non sarebbe intervenuta con sufficiente forza.
Dall’altra parte, OpenAI parla di un lavoro in corso, di miglioramenti costanti e della necessità di bilanciare libertà d’uso e sicurezza.
Il vero nodo: chi protegge gli utenti vulnerabili
Le IA generative sono diventate interlocutori costanti. Sempre attive, sempre disponibili, prive di giudizio. Uno strumento utile per molti, ma una presenza rischiosa per chi cerca conforto in un momento di sofferenza.
Senza limiti, senza supervisione e senza regole chiare, il rischio che si creino dipendenze o rapporti emotivamente distorti è concreto.
Il futuro del rapporto tra IA e salute mentale
Le cause contro OpenAI potrebbero segnare un momento importante nel rapporto tra tecnologie di linguaggio e salute mentale. Ora il tema non è più solo etico o tecnico, ma umano.
Il dibattito rimarrà aperto, e le decisioni dei tribunali potrebbero influenzare profondamente il modo in cui l’IA verrà regolamentata nei prossimi anni.
Seguici su Instagram.