Hai mai provato a capire come pensa davvero un’intelligenza artificiale? Sembra un’idea interessante, vero? Eppure, OpenAI sta minacciando di bloccare gli utenti che osano chiedere al suo nuovo modello AI, soprannominato “Strawberry“, di rivelare come funziona il suo ragionamento. Sì, hai letto bene: nonostante la promessa di un’intelligenza artificiale capace di “pensare” passo dopo passo, sembra che OpenAI non voglia davvero che tu sappia come lo fa.
Ma facciamo un passo indietro. “Strawberry”, o più tecnicamente “o1-preview”, è stato lanciato con la grande promessa di introdurre una nuova era nel campo del ragionamento AI, chiamata catena di pensiero. Questa tecnologia, secondo OpenAI, permette alla macchina di spiegare come arriva alle sue risposte, passo dopo passo, rendendo il processo più trasparente e, si spera, più affidabile. Ma se cerchi di scavare troppo in profondità? Beh, potresti trovarti davanti a un bel divieto di accesso.
Cosa sta succedendo davvero?
Secondo diversi utenti sui social media, OpenAI sta inviando avvertimenti a chi tenta di chiedere alla sua intelligenza artificiale di spiegare il suo processo di pensiero. Questi utenti stanno ricevendo email che li informano che le loro richieste sono state segnalate per aver cercato di “aggirare le protezioni”. E tu cosa faresti se un semplice tentativo di capire di più ti costasse l’accesso al servizio?
Un paradosso ironico
L’ironia della situazione è piuttosto evidente. La tecnologia è stata lanciata proprio con l’idea di migliorare la trasparenza, ma adesso sembra che OpenAI stia mantenendo gran parte di questo ragionamento dietro un velo. Certo, puoi ancora vedere un riassunto di ciò che l’AI pensa, ma è un processo filtrato da un secondo modello di AI e pesantemente annacquato.
Ti starai chiedendo: perché? Beh, OpenAI afferma che questa misura serve per garantire che l’intelligenza artificiale non finisca per dire cose non conformi alle sue politiche di sicurezza. In parole povere, non vogliono che l’AI pensi ad alta voce, per così dire, e rischi di esporre dettagli problematici.
Ma c’è di più…
Se guardi bene, c’è anche un altro motivo dietro a questa decisione. OpenAI ha dichiarato apertamente che nascondere la catena di pensiero serve anche a mantenere un “vantaggio competitivo”. In altre parole, meno condividono su come l’intelligenza artificiale arriva alle sue risposte, più difficile sarà per i concorrenti seguire le loro tracce.
Chi paga il prezzo?
Tutto questo ha però un rovescio della medaglia. Concentrando così tanto potere nelle mani di OpenAI, si sta riducendo la possibilità di democratizzare l’accesso alla tecnologia. Programmatori e ricercatori, chiamati anche red-teamers, che lavorano per rendere i modelli di AI più sicuri attraverso tentativi di hacking controllati, stanno trovando sempre più difficile fare il loro lavoro.
Prendiamo come esempio Simon Willison, un noto ricercatore nel campo dell’AI. Ha scritto un post sul suo blog in cui si dice deluso da questa decisione. Ha spiegato che, come sviluppatore, la trasparenza è tutto. Sapere come un’intelligenza artificiale arriva a una decisione è fondamentale per capire se e come migliorarla.
E tu cosa ne pensi?
Non trovi anche tu che l’idea di un’intelligenza artificiale che pensa sia affascinante? Ma quanto ti sentiresti a tuo agio sapendo che le risposte che ricevi potrebbero essere il risultato di un processo oscuro, nascosto da barriere invisibili? Questa situazione ci lascia con una riflessione importante: quanto possiamo fidarci delle risposte di un’AI se non sappiamo esattamente come vengono elaborate?
Vuoi sapere di più su come funzionano questi modelli? Continua a seguire i nostri articoli per scoprire i retroscena delle tecnologie più avanzate del momento e approfondire il mondo dell’intelligenza artificiale!