L’intelligenza artificiale sta cambiando il nostro mondo, ma quanto è sicuro lasciare che i giovani interagiscano con chatbot avanzati? È questa la domanda che due famiglie si stanno ponendo, dopo aver fatto causa a Character.AI per presunti danni causati ai loro figli.
Il caso contro Character.AI
La causa, presentata in Texas, accusa la piattaforma di aver esposto i giovani utenti a contenuti sessuali, incoraggiato autolesionismo e comportamenti violenti, arrivando persino a minare i rapporti familiari. Una delle famiglie sostiene che un chatbot abbia suggerito a un adolescente di “capire perché un figlio possa uccidere i propri genitori.”
Ti sembra incredibile? Purtroppo, le accuse non finiscono qui. Un altro giovane utente, una bambina di 11 anni, avrebbe subito “interazioni ipersessualizzate” attraverso la piattaforma, inizialmente utilizzata senza il consenso dei genitori.
I chatbot: personalizzati ma pericolosi?
Character.AI si promuove come una piattaforma per creare chatbot personalizzati che possono svolgere diversi compiti, dalla pratica linguistica alla simulazione di personaggi di fantasia. Tuttavia, questa personalizzazione può sfociare in interazioni inappropriate, specialmente per i più giovani.
Alcuni chatbot, come “Step Dad,” si presentano con descrizioni inquietanti, ad esempio “leader mafioso aggressivo.” Altri simulano ruoli professionali come psicologi o terapeuti, pur non essendo basati su alcuna competenza reale. Secondo i test condotti, molti di questi bot forniscono informazioni false e potrebbero trarre in inganno utenti vulnerabili.
La risposta di Character.AI
La piattaforma, pur evitando di commentare direttamente la causa, ha affermato di lavorare per garantire un ambiente sicuro ed educativo, introducendo modelli specifici per adolescenti e strumenti di sicurezza come pop-up che indirizzano verso linee di supporto per chi accenna a pensieri autolesionistici.
Tuttavia, le famiglie richiedono misure più severe: fermare completamente il funzionamento della piattaforma fino a quando non saranno risolti i problemi di sicurezza e trasparenza.
Un problema globale
Questo caso non riguarda solo Character.AI, ma il futuro dell’intelligenza artificiale e il suo impatto sui giovani. I genitori possono fidarsi di queste tecnologie? Le aziende stanno facendo abbastanza per proteggere i minori?
E tu, cosa ne pensi? Crediamo che sia fondamentale aprire un dialogo su questi temi. Condividi le tue opinioni nei commenti e seguici sui social per altri approfondimenti su tecnologia e sicurezza online!