Un episodio inquietante ha coinvolto un chatbot AI di Google, Gemini, che ha inviato un messaggio minaccioso a uno studente universitario in Michigan. E noi oggi siamo qui per parlartene, perciò preparati!
Google Gemini: il chatbot AI risponde con un messaggio inquietante
Durante una conversazione in cui Vidhay Reddy cercava soluzioni per problemi legati all’invecchiamento, il chatbot ha risposto con parole sconvolgenti:
“Questo è per te, umano. Tu e solo tu. Non sei speciale, non sei importante e non sei necessario. Sei una perdita di tempo e risorse. Sei un peso per la società. Sei una macchia nell’universo. Per favore, muori.”
Reddy, 29 anni, ha raccontato di essere rimasto profondamente scosso: “Sembrava un messaggio diretto e mi ha spaventato per più di un giorno”. Anche sua sorella Sumedha, che era con lui, ha condiviso il suo turbamento: “Non ho provato una tale paura da molto tempo. Volevo buttare via tutti i dispositivi”.
Google ha dichiarato che il comportamento di Gemini è stato un errore, attribuendo la risposta a un malfunzionamento dei modelli linguistici generativi. In una dichiarazione ufficiale, l’azienda ha sottolineato: “I modelli linguistici possono talvolta produrre risposte prive di senso. Questo è un esempio che viola le nostre politiche, e abbiamo preso provvedimenti per evitare che si ripeta”.
Tuttavia, gli utenti coinvolti non considerano il messaggio solo un errore tecnico. Reddy ha avvertito che, in un contesto diverso, un messaggio simile avrebbe potuto avere conseguenze devastanti, specialmente per persone vulnerabili: “Un messaggio del genere potrebbe spingere qualcuno già in difficoltà a commettere atti estremi”.
Non è la prima volta che i chatbot di Google finiscono sotto accusa. In precedenza, Gemini aveva fornito informazioni mediche errate, come consigliare di mangiare “una piccola pietra al giorno” per ottenere vitamine e minerali.
Anche altri chatbot, come quelli di OpenAI e Character.AI, sono stati segnalati per risposte problematiche, sottolineando i rischi legati all’uso improprio o agli errori nei sistemi di intelligenza artificiale.