Meta, l’azienda madre di Facebook, ha recentemente aperto il suo modello di intelligenza artificiale chiamato Llama al pubblico, rendendolo open source e quindi accessibile a tutti, compresi enti governativi stranieri. Secondo un’inchiesta di Reuters, il modello è già stato adattato dall’esercito cinese per sviluppare uno strumento chiamato ChatBIT, progettato per raccogliere informazioni e supportare le decisioni operative.
Questo uso militare di Llama è in contrasto con la politica di Meta, che ufficialmente ne vieta l’utilizzo in ambito militare, bellico o di spionaggio. Tuttavia, poiché si tratta di un modello open source, il controllo sull’uso effettivo è pressoché impossibile, un fatto che evidenzia i limiti e i rischi dell’open source quando si parla di sicurezza nazionale.
La risposta di Meta: strategia o difesa tardiva?
Tre giorni dopo la notizia, Nick Clegg, presidente degli affari globali di Meta, ha pubblicato un post sostenendo che Llama può aiutare la sicurezza nazionale degli Stati Uniti, tentando di allineare il modello AI ai valori americani e di stabilire uno standard open source competitivo per gli USA. Tuttavia, il timing di questo intervento è stato criticato, interpretato da molti come un tentativo di contenimento dei danni, dato che l’esercito cinese ha già cominciato a utilizzare Llama per scopi militari.
L’intelligenza artificiale: sicurezza nazionale USA
La disponibilità pubblica di Llama apre interrogativi sulla sicurezza nazionale degli Stati Uniti. La Casa Bianca ha recentemente proposto regolamenti per limitare gli investimenti in AI in Cina, ma queste misure rischiano di arrivare troppo tardi, considerando la rapida adozione della tecnologia open source da parte di rivali geopolitici.
Un portavoce di Meta ha cercato di ridimensionare la questione, dichiarando che la versione open source di Llama è troppo “superata” per essere un vero vantaggio per la Cina, che sta investendo miliardi in AI per superare gli Stati Uniti.
La sfida dell’open source: opportunità o rischio?
L’approccio di Meta rappresenta una visione innovativa dell’open source, ma evidenzia anche i rischi quando non esistono meccanismi di controllo adeguati. In un contesto geopolitico teso, la disponibilità di modelli avanzati come Llama a enti stranieri senza controllo rischia di minare la stessa sicurezza degli Stati Uniti.
Meta ha spinto i confini dell’AI open source con Llama, ma l’adozione del modello da parte dell’esercito cinese solleva interrogativi importanti su come gestire queste tecnologie in un contesto globale. Resta connesso per altri aggiornamenti e dicci nei commenti: l’open source è un rischio o un’opportunità?