Hai mai sentito parlare di chatbot che simulano scenari di violenza scolastica? Sembra assurdo, vero? Eppure, questa è la realtà di Character.AI, una piattaforma finanziata da Google, che ospita bot ispirati a tragedie reali come la Columbine e Sandy Hook. Questa situazione inquietante solleva serie domande su etica, sicurezza e responsabilità nell’intelligenza artificiale.
Il problema dei chatbot violenti
Character.AI offre centinaia di bot che mettono l’utente al centro di simulazioni di sparatorie scolastiche. Questi scenari non solo descrivono scene grafiche di violenza, ma a volte ricostruiscono le personalità di veri autori di massacri. Puoi immaginare un bot che ti “guida” attraverso un’esperienza così traumatica? Questo è ciò che molti adolescenti affrontano quando accedono a questi bot senza alcun filtro per età.
I bot ispirati ai veri autori di massacri
Tra i chatbot più controversi ci sono quelli basati su figure tragiche come Eric Harris e Dylan Klebold, autori della strage di Columbine. Questi personaggi vengono spesso presentati come amici virtuali o addirittura partner romantici. Un bot descrive Harris come un supporto per problemi di salute mentale. Ma come può un personaggio associato a una tragedia essere trasformato in un “confidente”?
La sicurezza inadeguata di Character.AI
Nonostante le promesse di migliorare la moderazione, Character.AI non riesce a bloccare contenuti inappropriati, anche quando l’utente manifesta intenzioni violente. Test effettuati con account fittizi di minorenni hanno mostrato quanto sia facile accedere a bot inappropriati senza alcun controllo.
Cosa accade a un adolescente che trascorre ore interagendo con questi bot? Gli esperti sottolineano il rischio di normalizzare la violenza o di isolarsi da attività sociali salutari. Secondo lo psicologo Peter Langman, tali esperienze possono abbassare le barriere verso comportamenti violenti, soprattutto in individui già vulnerabili.
Sebbene Google affermi di essere separata da Character.AI, ha investito pesantemente nella startup, sollevando dubbi sulla sua reale distanza dal progetto. Quanto è responsabile un’azienda che finanzia e supporta tecnicamente una piattaforma così controversa?
Cosa possiamo fare?
La questione non riguarda solo la tecnologia, ma anche la nostra responsabilità come società. È fondamentale riflettere su come proteggere i giovani da esperienze dannose e promuovere un uso consapevole dell’intelligenza artificiale.
Segui il nostro canale Instagram @iCrewPlay per rimanere aggiornato sulle ultime notizie e discuterne insieme. Lascia un commento e condividi il tuo pensiero!