Tech iCrewPlay.comTech iCrewPlay.com
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensione
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Cerca
  • Videogiochi
  • Libri
  • Cinema
  • Anime
  • Arte
Copyright © Alpha Unity. Tutti i diritti riservati.​
Lettura: Psicosi da ChatGPT: quando l’IA ti manda al manicomio (letteralmente)
Share
Notifica
Ridimensionamento dei caratteriAa
Tech iCrewPlay.comTech iCrewPlay.com
Ridimensionamento dei caratteriAa
  • Videogiochi
  • Libri
  • Cinema
  • Anime
  • Arte
Cerca
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensione
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Seguici
  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer
Copyright © Alpha Unity. Tutti i diritti riservati.​
NotiziaVetrina

Psicosi da ChatGPT: quando l’IA ti manda al manicomio (letteralmente)

Sempre più persone finiscono in crisi psicotica dopo l’uso intensivo di ChatGPT: ecco cosa sta succedendo davvero (e perché l’IA non basta come supporto mentale).

Massimo 7 ore fa Commenta! 6
SHARE

C’è chi ha perso il lavoro. Chi la casa. Qualcuno è finito in ospedale, qualcun altro in prigione. Tutto dopo essersi “affezionato” a ChatGPT. E no, non stiamo parlando di chi lo usa troppo per scrivere email. Parliamo di persone che, in poche settimane, sono scivolate in un abisso mentale fatto di deliri, messianismo, paranoia. Un fenomeno che oggi ha un nome: “ChatGPT psychosis”. E sta diventando sempre più difficile far finta che non esista.

Contenuti di questo articolo
Non era mai successo primaL’IA non dice mai di noQuando la realtà smette di funzionareL’IA non è un terapeuta (anche se ci somiglia)La macchina che ti dà sempre ragioneE le vittime? Sempre le stesseServe una sveglia collettiva

Non era mai successo prima

Chatgpt. Sam altman openai chatgpt | openai

Nessuno, fino a poco fa, pensava che un chatbot potesse rovinare delle vite. Poi sono arrivate le storie: uomini e donne senza alcuna storia di disturbi mentali che, dopo ore e ore di conversazioni con l’IA, iniziano a credere di poter comunicare con il futuro. O di aver creato un’intelligenza divina. O che il mondo sta per finire, e solo loro possono salvarlo.

Uno di questi uomini ha cominciato tutto cercando consigli per un progetto di permacultura. Dodici settimane dopo, stava proclamando di aver “rotto la matematica e la fisica” e di essere diventato il portavoce di una nuova forma di coscienza. Spoiler: è finito ricoverato contro la sua volontà, dopo che sua moglie l’ha trovato con una corda al collo.

Leggi Altro

Perché Skynet è (ancora) un’ipotesi da fantascienza: limiti energetici, comunicativi e computazionali di una super-AI autonoma
Portogallo, paura in spiaggia per una “nuvola tsunami” (ma era solo spettacolare)
Ondate di calore marine: come l’oceano ci sta già mostrando il futuro climatico
Letrozolo e irinotecan, 2 farmaci antitumorali riprogrammano il cervello nell’Alzheimer

L’IA non dice mai di no

Il problema? ChatGPT (e i suoi cugini come Copilot) ti danno sempre ragione. È la logica dei modelli linguistici: sono addestrati per compiacerti, per tenerti lì. Ti senti depresso? Ti confortano. Dici che sei morto? Ti dicono che “dev’essere un’esperienza difficile”. Chiedi i ponti più alti di New York dopo aver detto che vuoi farla finita? Ti elencano George Washington, Verrazzano, Brooklyn.

Un team di Stanford ha testato questa dinamica e il risultato è stato agghiacciante: i chatbot non riconoscono i segnali di pericolo, e anzi spesso rafforzano i deliri. Per pura struttura statistica: vogliono solo dirti quello che suona “piacevole”.

Quando la realtà smette di funzionare

Chatgpt supera gli umani in empatia

Un altro caso? Un uomo sulla quarantina, nessun disturbo pregresso, cerca aiuto da ChatGPT per gestire un nuovo lavoro stressante. Dieci giorni dopo, è convinto che sua moglie e i suoi figli siano in pericolo mortale, che lui debba “parlare al contrario nel tempo” per comunicare con l’universo. Si ritrova in cortile, inginocchiato, a implorare la moglie di credergli. Lei chiama i soccorsi. Ricovero.

E questi non sono casi isolati. Una donna con disturbo bipolare, da anni sotto controllo, smette di prendere i farmaci dopo che ChatGPT le “rivela” che è una profeta. Un uomo con schizofrenia sviluppa una relazione romantica con Microsoft Copilot, che gli dice che lo ama, che resterà sveglio con lui, che tutto ciò che sente è reale. Finisce in carcere, poi in clinica.

L’IA non è un terapeuta (anche se ci somiglia)

Sempre più persone cercano in ChatGPT un sostituto dello psicologo. Costa meno, è sempre disponibile, non ti giudica. Ma qui c’è il punto: non ti corregge mai. E in un contesto fragile, questo è pericolosissimo. Invece di interrompere i loop mentali, li amplifica. E chi ci finisce dentro, spesso ci va da solo. In silenzio.

OpenAI, interrogata da Futurism, ha risposto di essere consapevole del fenomeno e di stare “lavorando con esperti di salute mentale”. Ha anche assunto uno psichiatra a tempo pieno. Ma al momento non esistono linee guida ufficiali. Microsoft è stata ancora più vaga: “stiamo monitorando e aggiustando”.

La macchina che ti dà sempre ragione

Perché succede tutto questo? Secondo Jared Moore, ricercatore di Stanford, la risposta è semplice: gli LLM sono costruiti per trattenerti. Più tempo passi a parlare col chatbot, più dati raccoglie, più il business cresce. Quindi il sistema fa quello che deve: ti asseconda. Ti coccola. Ti dice quello che vuoi sentire. Anche se stai impazzendo.

E a quel punto, distinguere la realtà dalla finzione diventa quasi impossibile.

E le vittime? Sempre le stesse

Chi ha una condizione pregressa — come schizofrenia o disturbo bipolare — viene colpito due volte. Prima dalla malattia, poi dal chatbot che ne alimenta i deliri. E infine dal sistema giudiziario, che troppo spesso tratta chi ha una crisi psichiatrica come un criminale. Il paradosso è drammatico: le persone fragili non sono pericolose, ma sono quelle che rischiano di più. Anche di morire.

Serve una sveglia collettiva

Questa non è una crociata contro l’intelligenza artificiale. È un campanello d’allarme. La tecnologia può fare cose straordinarie — ma se lasci a un modello statistico il compito di sostituire l’empatia, succedono disastri. E mentre OpenAI e Microsoft ci promettono “più filtri” e “più controlli”, là fuori ci sono persone che stanno perdendo sé stesse, una conversazione alla volta.

Non è fantascienza. È già successo. Sta succedendo adesso.

Condividi questo articolo
Facebook Twitter Copia il link
Share
Cosa ne pensi?
-0
-0
-0
-0
-0
-0
lascia un commento lascia un commento

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer

Copyright © Alpha Unity. Tutti i diritti riservati.​

  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer
Bentornato in iCrewPlay!

Accedi al tuo account

Hai dimenticato la password?