Google ha recentemente implementato un aggiornamento significativo al proprio motore di ricerca, introducendo uno strumento basato sull’intelligenza artificiale (AI), noto come “AI Overviews”.
Questa funzionalità sperimentale è stata progettata per esplorare il Web e riassumere i risultati di ricerca utilizzando il modello Gemini AI, tuttavia nonostante le intenzioni innovative, la nuova funzionalità ha sollevato una serie di preoccupazioni e perplessità, evidenziate da vari episodi riportati sui social media e dalle notizie.
Secondo quanto riferito, AI Overviews avrebbe fornito agli utenti consigli alquanto discutibili, tra questi, l’invito a mangiare sassi, aggiungere colla alle pizze e utilizzare cloro gassoso per pulire le lavatrici. Questi suggerimenti, al limite dell’assurdo, hanno suscitato non poco stupore e hanno alimentato un dibattito acceso sul ruolo e l’affidabilità dell’intelligenza artificiale nella nostra quotidianità.
In un caso particolarmente allarmante, l’intelligenza artificiale sembrava suggerire di saltare dal Golden Gate Bridge a un utente che esprimeva sentimenti di depressione, un tipo di risposta che è chiaramente inappropriato e potenzialmente pericoloso, specialmente per chi cerca aiuto e supporto.
Il funzionamento di AI Overviews
AI Overviews opera analizzando il web per condensare i risultati di ricerca in riassunti concisi, con Google che ha introdotto questa caratteristica durante la conferenza degli sviluppatori I/O, rendendola inizialmente disponibile a un gruppo selezionato di utenti negli Stati Uniti, mentre per quanto riguarda il rilascio globale, questo è previsto per la fine dell’anno.
Nonostante le sue potenzialità, AI Overviews non è stata esente da errori, gli utenti infatti hanno segnalato casi in cui l’AI ha generato riassunti basandosi su articoli del sito satirico The Onion o su post umoristici di Reddit.
Un esempio lo abbiamo visto poco fa, in risposta a una domanda sulla pizza, l’AI avrebbe consigliato di aggiungere circa ⅛ di tazza di colla non tossica alla salsa per aumentarne l’aderenza, seguendo quello che sembra essere un vecchio scherzo di Reddit risalente a dieci anni fa.
Altre inesattezze attribuite ad AI Overviews includono affermazioni secondo cui Barack Obama sarebbe musulmano, che il padre fondatore John Adams si sarebbe laureato 21 volte all’Università del Wisconsin, e che un cane avrebbe giocato nella NBA, NHL e NFL.
I rappresentanti di Google hanno risposto alle preoccupazioni, sottolineando che la maggior parte delle AI Overviews fornisce informazioni di alta qualità, con link per approfondire ulteriormente, e assicurano che sono stati condotti test estensivi prima del lancio di questa nuova esperienza per soddisfare i loro rigorosi standard di qualità.
Sebbene si siano verificati incidenti isolati, Google continua a perfezionare i suoi sistemi, ma questa non è la prima volta che i modelli di AI generativa mostrano “allucinazioni”, inventando informazioni fittizie.
In un esempio degno di nota, ChatGPT ha creato uno scandalo per molestie sessuali, implicando falsamente un vero professore di diritto e citando resoconti di giornali inesistenti come prova.
Mentre la tecnologia AI si evolve, è fondamentale trovare un equilibrio tra innovazione e accuratezza, sebbene AI Overviews sia promettente, è essenziale rimanere vigili e assicurarsi che i suoi output siano allineati con informazioni affidabili, dopotutto anche l’AI può avere i suoi momenti bizzarri.
La promessa dell’Intelligenza Artificiale
L’intelligenza artificiale è una delle tecnologie più promettenti del nostro tempo, e le sue applicazioni spaziano da assistenti virtuali a veicoli autonomi, dalla diagnosi medica alla traduzione automatica.
Google, con la sua vasta esperienza nel campo, ha cercato di portare l’IA al centro della nostra esperienza di ricerca online, tuttavia come dimostra AI Overviews, anche le migliori intenzioni possono inciampare in situazioni impreviste.
La sfida principale per qualsiasi strumento di sintesi o riassunto è garantire l’accuratezza e la qualità delle informazioni fornite, e AI Overviews sembra aver avuto difficoltà in questo senso.
La sua abilità di generare contenuti basati su fonti satiriche o post comici è preoccupante, questo in quanto gli utenti si affidano ai risultati di ricerca per ottenere informazioni affidabili, e quando l’IA introduce elementi errati o fuorvianti, si crea un problema di fiducia.
Google ha una grande responsabilità nel garantire che le sue funzionalità siano utili e affidabili, e sebbene i rappresentanti di Google abbiano dichiarato che gli esempi errati sono “generalmente query molto insolite e non rappresentative delle esperienze della maggior parte delle persone”, è importante considerare che l’IA deve essere in grado di gestire anche situazioni inusuali.
La verifica delle fonti e la coerenza delle risposte sono fondamentali per mantenere l’integrità del servizio, situazione che del resto solleva domande importanti sulla formazione e sulla supervisione di tali modelli: come possiamo garantire che l’IA non diventi un veicolo per la disinformazione?
In conclusione, AI Overviews rappresenta un passo avanti nell’ambito della sintesi delle informazioni, ma richiede un’attenzione costante per migliorare la qualità delle risposte, e Google dovrebbe continuare a raffinare il suo sistema, coinvolgendo esperti e utilizzatori per garantire che l’IA rimanga un alleato affidabile nella nostra ricerca quotidiana.
Se sei attratto dalla scienza o dalla tecnologia, continua a seguirci, così da non perderti le ultime novità e news da tutto il mondo!