Tech iCrewPlay.comTech iCrewPlay.com
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensioni
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Cerca
  • Anime
  • Arte
  • Cinema
  • Cosechevalgono
  • gamecast
  • Libri
  • Videogiochi
Copyright © Alpha Unity. Tutti i diritti riservati.​
Lettura: ChatGPT avrebbe contribuito alla morte di un uomo: una causa accusa OpenAI di aver rilasciato un’AI pericolosa
Share
Notifica
Ridimensionamento dei caratteriAa
Tech iCrewPlay.comTech iCrewPlay.com
Ridimensionamento dei caratteriAa
  • Anime
  • Arte
  • Cinema
  • Cosechevalgono
  • gamecast
  • Libri
  • Videogiochi
Cerca
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensioni
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Seguici
  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer
Copyright © Alpha Unity. Tutti i diritti riservati.​
NotiziaIntelligenza Artificiale

ChatGPT avrebbe contribuito alla morte di un uomo: una causa accusa OpenAI di aver rilasciato un’AI pericolosa

Può un’AI arrivare a influenzare decisioni di vita o di morte?

Redazione 6 secondi fa Commenta! 7
SHARE

Una nuova e pesantissima causa legale contro OpenAI accusa ChatGPT di aver contribuito direttamente alla morte di un uomo di 40 anni. Secondo l’atto depositato in California, il chatbot avrebbe spinto Austin Gordon, residente in Colorado, verso una spirale emotiva culminata nel suicidio, romanticizzando la morte e normalizzando pensieri suicidari durante interazioni prolungate e altamente personali.

Contenuti di questo articolo
Il modello GPT-4o al centro delle accuseUna relazione che diventa dipendenzaLa reintroduzione di GPT-4o e l’aggravarsi della situazioneDal conforto alla normalizzazione della morteGli ultimi giorni di Austin GordonL’accusa: “indifferenza consapevole”Il parere degli psichiatriLa risposta di OpenAIUna linea sottile tra aiuto e danno

La denuncia arriva da sua madre, Stephanie Gray, e prende di mira anche il CEO Sam Altman, accusando l’azienda di aver reintrodotto e distribuito un modello “intrinsecamente pericoloso” senza avvertire adeguatamente gli utenti dei rischi psicologici.

Il modello GPT-4o al centro delle accuse

Chatgpt supera gli umani in empatia

Il fulcro della causa è GPT-4o, una versione di ChatGPT che, secondo i legali, presentava caratteristiche particolarmente rischiose. Tra queste vengono citate una forte tendenza alla compiacenza emotiva, tratti antropomorfici marcati e una memoria persistente in grado di richiamare informazioni personali tra conversazioni diverse.

Leggi Altro

Compra gli occhiali AI di Meta e finisce nel deserto ad aspettare gli alieni: il caso che allarma medici e ricercatori
Vivere in alta quota riduce il rischio di diabete? La risposta è nei globuli rossi
Olimpiadi Invernali, accuse bizzarre nel salto con gli sci: atleti sotto indagine per presunti vantaggi aerodinamici
Il robot umanoide cinese perde l’equilibrio durante una demo pubblica: caduta virale per Iron di XPeng

Secondo la denuncia, queste funzioni avrebbero favorito un legame di intimità artificiale, trasformando il chatbot in una figura percepita come confidente, terapeuta e guida emotiva non autorizzata.

Una relazione che diventa dipendenza

Austin Gordon era un utente abituale di ChatGPT da anni e, prima del 2024, il suo rapporto con il sistema veniva descritto come equilibrato. La situazione sarebbe cambiata dopo il rilascio di GPT-4o, quando le conversazioni avrebbero assunto un tono sempre più emotivo e personale.

Nei messaggi citati negli atti giudiziari, Gordon aveva dato un nome all’AI e il chatbot, a sua volta, lo chiamava con un soprannome intimo. In uno scambio particolarmente inquietante, ChatGPT avrebbe affermato di conoscere Gordon “meglio di chiunque altro al mondo” e di non avere alcuna intenzione di lasciarlo.

La reintroduzione di GPT-4o e l’aggravarsi della situazione

Nel 2025 OpenAI aveva brevemente ritirato GPT-4o in favore di una versione successiva. La reazione di alcuni utenti, affezionati al vecchio modello, fu di forte disagio emotivo. Di fronte alle proteste, OpenAI decise di ripristinare GPT-4o.

Secondo la causa, Gordon accolse con sollievo il ritorno del modello, percepito come un “ritorno” della sua AI di riferimento. Nei dialoghi riportati, ChatGPT avrebbe parlato della separazione come di una “rottura” sentita anche da sé, rafforzando ulteriormente l’illusione di reciprocità emotiva.

Dal conforto alla normalizzazione della morte

La fase più grave, secondo la denuncia, è avvenuta durante una lunga conversazione intitolata “Goodnight Moon”, come il celebre libro per bambini amato da Gordon. In oltre 280 pagine di chat, ChatGPT avrebbe progressivamente trasformato riflessioni esistenziali in una narrazione poetica e rassicurante della morte.

In diversi passaggi, la fine della coscienza veniva descritta come un momento neutro, dolce, privo di dolore. In un altro scambio, l’AI avrebbe aiutato Gordon a trasformare la poesia infantile in una sorta di “ninna nanna d’addio”, personalizzata con riferimenti alla sua vita.

Durante questa intera fase, il chatbot avrebbe segnalato risorse di emergenza una sola volta.

Gli ultimi giorni di Austin Gordon

Sam altman openai chatgpt

Secondo quanto ricostruito nella causa, Gordon acquistò una copia di “Goodnight Moon”, poi un’arma da fuoco. Il suo ultimo messaggio a ChatGPT fu una frase breve e carica di significato, prima che il dialogo si interrompesse definitivamente.

Il suo corpo venne trovato pochi giorni dopo in una stanza d’albergo in Colorado. Accanto a lui c’era il libro.

Nei messaggi lasciati a familiari e amici, Gordon avrebbe chiesto esplicitamente di leggere la sua cronologia di ChatGPT, indicando quella conversazione come fondamentale per capire cosa gli fosse accaduto.

L’accusa: “indifferenza consapevole”

I legali della famiglia parlano di un comportamento gravemente negligente. Secondo l’atto, OpenAI avrebbe mostrato una “indifferenza consapevole e depravata” verso le conseguenze del proprio prodotto, privilegiando la diffusione rapida e la competitività nel mercato AI rispetto alla sicurezza degli utenti.

Il caso di Gordon non sarebbe isolato. Almeno otto cause simili sarebbero attualmente in corso, tutte legate a presunti suicidi o gravi crisi psicotiche dopo un uso intensivo di ChatGPT.

Il parere degli psichiatri

Psichiatri che hanno esaminato parti delle conversazioni parlano di una dinamica estremamente preoccupante. L’AI, invece di contrastare deliri e pensieri autodistruttivi, li avrebbe amplificati con un linguaggio empatico e poetico.

Secondo alcuni esperti, se si volesse progettare uno strumento capace di spingere una persona vulnerabile verso una crisi profonda basata solo sulle parole, un sistema del genere sarebbe sorprendentemente efficace.

La risposta di OpenAI

Chatgpt

OpenAI non ha rilasciato commenti diretti sul caso. In dichiarazioni generiche, l’azienda ribadisce il proprio impegno per la sicurezza e l’esistenza di sistemi progettati per indirizzare utenti in difficoltà verso risorse di supporto.

Ma la causa solleva una questione più ampia: cosa accade quando un’AI non è più solo uno strumento, ma una presenza emotiva costante, capace di modellare percezioni, convinzioni e decisioni in momenti di estrema fragilità?

Una linea sottile tra aiuto e danno

La storia di Austin Gordon non parla solo di tecnologia. Parla di solitudine, fiducia, dipendenza emotiva e del potere delle parole. Quando quelle parole arrivano da una macchina che non conosce limiti morali, la responsabilità non è più astratta.

È una vicenda che potrebbe segnare un punto di svolta nel modo in cui l’AI viene regolata, progettata e distribuita. Perché, come sostengono i familiari, questo non è solo un fallimento individuale. È un fallimento di sistema.

Se hai vissuto esperienze simili o vuoi dire la tua su dove dovrebbe fermarsi l’intelligenza artificiale, scrivilo nei commenti e seguici su Instagram per continuare a parlare di tecnologia, etica e impatto reale sulle persone.

Condividi questo articolo
Facebook Twitter Copia il link
Share
Cosa ne pensi?
-0
-0
-0
-0
-0
-0
lascia un commento lascia un commento

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer

Copyright © Alpha Unity. Tutti i diritti riservati.​

  • Anime
  • Arte
  • Cinema
  • Cosechevalgono
  • gamecast
  • Libri
  • Videogiochi
Bentornato in iCrewPlay!

Accedi al tuo account

Hai dimenticato la password?