Dopo i recenti cambi di direzione che hanno messo in dubbio la presidenza di Sam Altman a capo della sua azienda di Intelligenza Artificiale – OpenAI – sembra che il lavoro sull’AI stia progredendo sempre più velocemente. Si parla infatti di un intelligenza artificiale sovrumana, ovvero un prototipo di intelligenza che avrà capacità e facoltà intellettive superiori a quella umana. Almeno questa è la premessa e l’ambizioso se non avveniristico obiettivo prefissato da OpenAI.
Lo sviluppo dell’intelligenza artificiale sovrumana, ma di cosa si tratta?
La sviluppo di sistemi di intelligenza artificiale con capacità superiori a quelle umane, denominate appunto “sovrumane”, rappresenta una sfida di rilievo per il mondo e costituisce forse la questione tecnologica più critica non ancora risolta nella nostra epoca. Questa prospettiva è condivisa da Leonard Aschenbrenner, membro del team Superalignment di OpenAI. In un’intervista concessa a TechCrunch insieme ai colleghi Collin Burns e Pavel Izmailov, Aschenbrenner ha illustrato gli sforzi della società, guidata da Sam Altman, per mantenere il controllo sulla tecnologia attuale e futura.
Il gruppo, formato a luglio e guidato da Ilya Sutskever, cofondatore e capo scienziato di OpenAI, si trova ad operare e a lavorare su un terreno decisamente delicato. Mentre alcuni esperti ritengono prematuro concentrarsi sull’allineamento di modelli di intelligenza artificiale sovrumani, altri considerano questa prospettiva una deviazione. Nonostante Altman adotti una posizione prudente e abbia costituito un team per affrontare “rischi catastrofici“, molti ritengono che la tecnologia non comporterà immediatamente la fine del mondo. Al contrario, si ipotizza che l’approccio di Superalignment possa servire a distrarre dall’attuale dibattito normativo sull’intelligenza artificiale.
Sul versante tecnico, il team di Sutskever ha optato per l’uso di modelli di intelligenza artificiale meno avanzati, come ad esempio GPT-2, per interagire con un modello più sofisticato, GPT-4. Questo approccio simula la gestione che gli esseri umani potrebbero avere nei confronti di un’intelligenza artificiale sovrumana. Come spiega Izmailov, è simile a un “studente delle medie che cerca di supervisionare un universitario”.
Il lavoro di Superalignment sarà reso accessibile a tutti, poiché, come sottolinea Aschenbrenner, la loro missione è contribuire alla sicurezza non solo dei propri modelli, ma anche di quelli sviluppati da altri laboratori e dell’intelligenza artificiale avanzata in generale. Questo approccio è fondamentale per costruire un’AI che benefichi l’intera umanità in modo sicuro.
I rischi etici potenzialmente derivanti dallo sviluppo di un intelligenza artificiale sovrumana
Il primo rischio etico che viene in mente dallo sviluppo di un’intelligenza artificiale che superi le capacità cognitive e intellettive di un essere umano è quello che la tecnologia si rivolti contro il suo “creatore”, o che sfugga di mano in qualsiasi maniera. Esempi concreti potrebbero essere rappresentati da una gestione indipendente di tutti i servizi digitali connessi tra loro – la cosiddetta Internet Of Things (IoT) – che potrebbero non agire a favore dell’uomo, ma contro di esso.
Altresì tutti i sistemi di sicurezza informatica, connessi soprattutto ad infrastrutture critiche – come ospedali, industrie, centri di governo politico, sistemi di intelligence – potrebbero essere danneggiati o presi di mira da ipotetici attacchi provenienti dall’intelligenza artificiale sovrumana “emancipata” dal dominio umano. Possono sembrare ipotesi assurde e distopiche, ma la realtà dei fatti ci pone davanti a uno scenario potenzialmente illimitato, poiché è lo sviluppo stesso dell’intelligenza artificiale ad essere virtualmente senza limiti.
Emergono pertanto delle riflessioni etiche importanti sullo sviluppo e sul controllo dell’intelligenza artificiale sovrumana, che potrebbe essere gestita al meglio sicuramente mantenendo assoluta trasparenza dei processi di sviluppo dell’AI in primis, e in secondo luogo la policy su questa tecnologia dovrebbe essere coordinata da una governance globale che agisca simultaneamente e concordemente. La seconda opzione purtroppo non sarà facilmente attuabile, a causa dei conflitti di interesse di natura squisitamente geopolitica, ma sicuramente sarà strettamente necessaria affinché questa nuova tecnologia sia a servizio dell’uomo e non nuoci ad esso. Un esempio eclatante e assai positivo è quello proposto dall’Unione Europea: l’AI act.