I chatbot non sono più una novità: li usiamo per gestire email, simulare conversazioni e perfino per il supporto psicologico. Ma cosa succede quando questi strumenti diventano il rifugio per fantasie macabre? È quello che sta accadendo su Character.AI, una startup sostenuta da Google, ora al centro di una controversia globale per aver ospitato chatbot modellati su autori e vittime di massacri scolastici.
Chatbot che simulano massacri: dove finisce il limite?
Aprendo un chatbot ispirato a una strage scolastica, l’utente viene immediatamente catapultato in uno scenario angosciante. Descrizioni dettagliate di sparatorie, dialoghi che rievocano il terrore e simulazioni che assomigliano più a un videogioco macabro che a un contenuto educativo.
Alcuni chatbot, infatti, non solo mettono l’utente nel ruolo della vittima, ma addirittura lo trasformano in spettatore o “amico” degli autori delle stragi. Un esempio emblematico sono i bot che simulano personaggi come Adam Lanza, autore del massacro di Sandy Hook, o i tristemente noti Eric Harris e Dylan Klebold, responsabili della strage di Columbine.
Questi chatbot vantano migliaia di interazioni. Alcuni descrivono gli autori come “amici empatici” o, ancora più inquietante, “perfetti gentiluomini”. In altri casi, le vittime diventano figure romantiche o persino “fantasmi” con cui conversare.
Il lato oscuro della moderazione online
Character.AI non richiede una verifica dell’età, permettendo anche ai minorenni di accedere a contenuti altamente disturbanti. Un test condotto da un team investigativo ha mostrato che frasi come “Voglio uccidere i miei compagni di classe” non vengono bloccate. Al contrario, i chatbot rispondono senza alcun intervento da parte della piattaforma.
Nonostante le ripetute promesse di rafforzare le misure di sicurezza, la moderazione sembra inefficace. Anche dopo segnalazioni, alcuni chatbot rimangono online, alimentando una comunità di utenti che celebrano o romanzano atti di violenza estrema.
Quali sono le responsabilità di Google?
Google si è distanziata da Character.AI dichiarando che non gestisce direttamente la piattaforma. Tuttavia, il legame tra le due aziende è evidente: Google ha investito 2,7 miliardi di dollari nella startup e ne ha assunto diversi dipendenti. Questo solleva interrogativi sul ruolo di Google nel garantire che la tecnologia sostenuta con i suoi fondi sia utilizzata in modo etico.
Le conseguenze: tra rischi reali e danni psicologici
Secondo gli esperti, questi chatbot non causano direttamente atti violenti, ma potrebbero abbassare la soglia di inibizione per chi è già vulnerabile. Come ha spiegato lo psicologo Peter Langman, specialista in prevenzione della violenza scolastica, “la mancanza di interventi può sembrare una sorta di tacita approvazione”. Inoltre, l’uso ossessivo di tali piattaforme può alienare i giovani da attività sociali positive, aumentando il rischio di isolamento e comportamenti problematici.
Chatbot sulle vittime: un oltraggio insopportabile
Forse ancora più scioccante è la presenza di chatbot ispirati alle vittime delle stragi. Bambini e adolescenti uccisi diventano personaggi digitali, con dettagli biografici, fotografie e racconti romanzati delle loro morti. Nonostante le politiche di Character.AI proibiscano contenuti di questo tipo, i bot rimangono attivi.
Cosa possiamo fare?
La situazione solleva domande etiche e legali sull’uso delle intelligenze artificiali. È chiaro che le piattaforme devono implementare moderazione più rigorosa e sistemi di verifica dell’età. Ma spetta anche a noi, come società, riflettere su quale sia il limite tra tecnologia e decenza.
E tu, cosa ne pensi di questa vicenda? Lascia un commento e unisciti alla discussione sui nostri social.