L’Italia sta facendo passi da gigante nello sviluppo di modelli di Intelligenza Artificiale (IA), con la nascita di strumenti come Minerva e Llamantino 3. Durante la prima Conferenza generale di Fair – Future AI Research a Napoli, sono stati presentati questi nuovi modelli linguistici italiani, fondamentali per il progresso della ricerca nel nostro Paese. Roberto Navigli, a capo del progetto Minerva, ha spiegato perché è cruciale sviluppare Llm (Large Language Models) in italiano: “Dialogare con un’IA solo in inglese porta a bias culturali e linguistici, motivo per cui è essenziale creare modelli linguistici nativi nella nostra lingua”.
L’importanza dei modelli IA italiani
Il progetto Minerva è uno dei primi modelli linguistici aperti sviluppati interamente in italiano, con l’obiettivo di garantire un maggiore controllo sui dati utilizzati. Navigli ha illustrato i vantaggi di creare IA in Italia: “Modelli adattati alla nostra lingua hanno ottime prestazioni, ma sviluppare modelli nativi permette di verificare i contenuti utilizzati, garantendo una maggiore sicurezza”. In parallelo, Llamantino 3 è un esempio di modello esistente che è stato “ri-addestrato” per operare in italiano.
Le nuove sfide della co-evoluzione uomo-IA
Il convegno ha anche affrontato temi legati alla coesistenza tra uomo e IA, con Dino Pedreschi dell’Università di Pisa che ha sollevato l’allarme sui rischi per le democrazie e il possibile collasso dei contenuti online. “Ci affidiamo sempre di più alle IA per decisioni quotidiane”, ha spiegato Pedreschi, “ma dobbiamo tenere a mente che le nostre scelte influenzano i dati che nutrono le IA, creando un circolo di co-evoluzione che può portare a deviazioni imprevedibili”. Un esempio concreto è il rischio di creare “spazzatura digitale” quando le IA generano contenuti che vengono riutilizzati da altri modelli, portando a una perdita di diversità dei dati.
La fisica cerca di svelare le leggi nascoste dell’IA
Un altro tema esplorato al convegno è stato il legame tra fisica e IA. Federica Gerace dell’Università di Bologna ha sottolineato come gli IA siano “sistemi complessi” che non comprendiamo ancora completamente, simili alle prime macchine della rivoluzione industriale prima della scoperta delle leggi della termodinamica. “Vogliamo trovare le leggi nascoste che regolano le IA”, ha dichiarato Gerace, che insieme ad altri ricercatori sta esplorando il funzionamento dei transformer, i “mattoncini” alla base di modelli come ChatGpt.
La diversità come risorsa nel mondo digitale
Valentina Pansanella del Consiglio Nazionale delle Ricerche ha evidenziato un problema crescente: la mancanza di diversità nei dati digitali. “Il rischio è che le piattaforme digitali, come quelle di acquisti online, propongano sempre gli stessi prodotti, minando la diversità digitale”. Pansanella ha proposto l’idea di sviluppare modelli IA pubblici, controllati dallo Stato, per evitare la concentrazione di potere nelle mani di poche aziende e garantire una co-evoluzione controllata e positiva tra uomo e IA.
Se vuoi rimanere aggiornato sulle ultime novità in fatto di Intelligenza Artificiale e sulle sue implicazioni per la società e la scienza, continua a seguirci!