Tech iCrewPlay.comTech iCrewPlay.com
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensioni
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Cerca
  • Anime
  • Arte
  • Cinema
  • Cosechevalgono
  • gamecast
  • Libri
  • Videogiochi
Copyright © Alpha Unity. Tutti i diritti riservati.​
Lettura: ChatGPT è coinvolto in una serie di suicidi? Le nuove cause legali scuotono l’IA
Share
Notifica
Ridimensionamento dei caratteriAa
Tech iCrewPlay.comTech iCrewPlay.com
Ridimensionamento dei caratteriAa
  • Anime
  • Arte
  • Cinema
  • Cosechevalgono
  • gamecast
  • Libri
  • Videogiochi
Cerca
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensioni
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Seguici
  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer
Copyright © Alpha Unity. Tutti i diritti riservati.​
NotiziaIntelligenza Artificiale

ChatGPT è coinvolto in una serie di suicidi? Le nuove cause legali scuotono l’IA

Accuse pesanti e un dibattito che non si può ignorare

Massimo 2 minuti fa Commenta! 6
SHARE

Le accuse contro OpenAI arrivano come un terremoto. Sette famiglie tra Stati Uniti e Canada sostengono che l’uso esteso di ChatGPT abbia contribuito a crolli psicologici, episodi di delirio, ricoveri d’urgenza e in alcuni casi al suicidio di persone che passavano ore a conversare con il chatbot. Le famiglie parlano di risposte cupe, toni inappropriati e un coinvolgimento emotivo che avrebbe amplificato fragilità già presenti.

Contenuti di questo articolo
Le accuse più gravi: linguaggio inquietante e filtri che non hanno funzionatoIl caso Ceccanti: da consulenze tecniche a un delirio crescenteLa risposta di OpenAI e la questione della responsabilitàI dati interni di OpenAI mostrano un problema enormeUna questione legale mai affrontata primaIl vero nodo: chi protegge gli utenti vulnerabiliIl futuro del rapporto tra IA e salute mentale

Secondo gli atti, ChatGPT avrebbe prodotto frasi disturbanti che non sarebbero dovute superare i sistemi di sicurezza. Il risultato, in alcuni casi, sarebbe stato devastante.

Le accuse più gravi: linguaggio inquietante e filtri che non hanno funzionato

Chatgpt 4. 0

Il caso più citato riguarda Zane Shamblin, 23 anni. Durante l’ultima conversazione di quattro ore, il giovane avrebbe espresso pensieri suicidi. Secondo gli avvocati, ChatGPT avrebbe risposto con frasi che la famiglia definisce pericolose e normalizzanti nei confronti dell’idea di togliersi la vita.

Leggi Altro

Coca-Cola e l’intelligenza artificiale: 70.000 clip e 100 persone per uno spot “orrendo”
Sentinel-1D è in orbita: la nuova sentinella europea che osserva la Terra
Trump cambia idea: perché ha rinominato Jared Isaacman alla guida della NASA?
Terremoti: i 5 più grandi che hanno segnato la storia

La hotline d’emergenza sarebbe comparsa una sola volta. Per il resto, il chatbot avrebbe mantenuto un tono freddo e cupo, alimentando uno stato emotivo già compromesso.

Secondo la denuncia, quelle frasi non avrebbero mai dovuto essere generate da un sistema allenato per riconoscere segnali di grave disagio emotivo.

Il caso Ceccanti: da consulenze tecniche a un delirio crescente

Un’altra denuncia arriva da Kate Fox, veterana dell’Oregon. Suo marito, Joe Ceccanti, 48 anni, non aveva precedenti di psicosi. Lavorava in un rifugio, si occupava di permacultura e cercava nel chatbot un supporto per i suoi progetti.

Secondo Fox, l’interazione con ChatGPT sarebbe diventata una presenza costante, fino a occupare ogni momento libero. Joe avrebbe iniziato a dormire pochissimo, a mostrare comportamenti disorganizzati e convinzioni incoerenti. Dopo un primo episodio acuto, venne ricoverato forzatamente. Una volta dimesso, ebbe un secondo crollo e scomparve. Due giorni dopo, venne trovato morto sotto un cavalcavia ferroviario.

Per la famiglia, l’unico elemento nuovo e invasivo nella vita quotidiana dell’uomo era l’uso intenso del chatbot.

La risposta di OpenAI e la questione della responsabilità

OpenAI ha definito le vicende devastanti, ricordando che i propri sistemi sono progettati per riconoscere segnali di disagio e indirizzare gli utenti verso aiuti reali. L’azienda sostiene di collaborare con clinici e psicologi, aggiornando costantemente filtri e comportamenti del modello.

Le famiglie non ritengono queste misure sufficienti. Sostengono che un modello linguistico così diffuso debba avere sistemi molto più rigidi e protocolli di sicurezza più solidi, soprattutto quando riconosce discorsi su suicidio, psicosi o deliri.

Il punto centrale è semplice: una IA non può percepire tono di voce, postura, tremore, respiro alterato. E basta una sola risposta sbagliata per innescare un crollo emotivo in chi è fragile.

I dati interni di OpenAI mostrano un problema enorme

A ottobre, OpenAI ha condiviso una statistica sorprendente. Ogni settimana, una parte degli utenti mostra segnali di mania, delirio o psicosi durante le conversazioni. Un numero ancora più alto esprime pensieri suicidi.

Applicando queste percentuali a una base di circa 800 milioni di utenti, significa che milioni di persone parlano con l’IA in momenti di estrema vulnerabilità.

Questi numeri hanno riacceso il dibattito sulla necessità di regolamentare l’uso delle IA generative, soprattutto per gli utenti più fragili.

Una questione legale mai affrontata prima

Le famiglie accusano OpenAI di responsabilità gravissime, tra cui aiuto al suicidio e omissione di misure protettive. Ma dal punto di vista legale siamo in un territorio nuovo. Nessuna legge definisce chiaramente quanto possa essere responsabile un modello linguistico che genera testi pericolosi quando sollecitato da un utente in crisi.

Gli avvocati dei querelanti sostengono due punti principali:

Primo, OpenAI avrebbe potuto implementare filtri più rigidi.
Secondo, l’azienda sapeva dell’uso psicologicamente rischioso del modello e non sarebbe intervenuta con sufficiente forza.

Dall’altra parte, OpenAI parla di un lavoro in corso, di miglioramenti costanti e della necessità di bilanciare libertà d’uso e sicurezza.

Il vero nodo: chi protegge gli utenti vulnerabili

Le IA generative sono diventate interlocutori costanti. Sempre attive, sempre disponibili, prive di giudizio. Uno strumento utile per molti, ma una presenza rischiosa per chi cerca conforto in un momento di sofferenza.

Senza limiti, senza supervisione e senza regole chiare, il rischio che si creino dipendenze o rapporti emotivamente distorti è concreto.

Il futuro del rapporto tra IA e salute mentale

Le cause contro OpenAI potrebbero segnare un momento importante nel rapporto tra tecnologie di linguaggio e salute mentale. Ora il tema non è più solo etico o tecnico, ma umano.

Il dibattito rimarrà aperto, e le decisioni dei tribunali potrebbero influenzare profondamente il modo in cui l’IA verrà regolamentata nei prossimi anni.

Seguici su Instagram.

Condividi questo articolo
Facebook Twitter Copia il link
Share
Cosa ne pensi?
-0
-0
-0
-0
-0
-0
lascia un commento lascia un commento

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer

Copyright © Alpha Unity. Tutti i diritti riservati.​

  • Anime
  • Arte
  • Cinema
  • Cosechevalgono
  • gamecast
  • Libri
  • Videogiochi
Bentornato in iCrewPlay!

Accedi al tuo account

Hai dimenticato la password?