Il Regno Unito e gli Stati Uniti, insieme a partner internazionali provenienti da altri 16 paesi, hanno pubblicato nuove linee guida per lo sviluppo di sistemi di intelligenza artificiale (IA) sicuri.
In cosa consistono queste linee guida per lo sviluppo dell’intelligenza artificiale
“L’approccio prioritizza il possesso degli esiti della sicurezza per i clienti, abbraccia la trasparenza e la responsabilità radicale ed istituisce strutture organizzative in cui il design sicuro è una priorità assoluta“, ha dichiarato l’Agenzia per la Sicurezza Informatica e l’Infrastruttura degli Stati Uniti (CISA).
L’obiettivo è aumentare i livelli di sicurezza informatica dell’IA e garantire che la tecnologia sia progettata, sviluppata e implementata in modo sicuro, ha aggiunto il Centro Nazionale per la Sicurezza Informatica (NCSC).
Le linee guida si basano anche sugli sforzi in corso del governo degli Stati Uniti per gestire i rischi posti dall’Intelligenza Artificiale, garantendo che i nuovi strumenti siano adeguatamente testati prima della loro pubblica distribuzione, con adeguate protezioni per affrontare danni alla società, come il pregiudizio e la discriminazione, e preoccupazioni sulla privacy, e stabilendo metodi robusti per consentire ai consumatori di identificare il materiale generato dall’IA.
Tale impiego per delle linee guida di progettazione sicura impegna inoltre le aziende a favorire la scoperta e la segnalazione di vulnerabilità nei loro sistemi di IA da parte di terzi, attraverso un sistema di bug bounty, in modo che tali vunlerabilità e varie falle sulla sicurezza e sulla privacy possano essere individuate e risolte rapidamente.
Le ultime linee guida “aiutano gli sviluppatori a garantire che la sicurezza informatica sia una condizione essenziale per la sicurezza del sistema IA che parte integrante del processo di sviluppo fin dall’inizio e per tutto il ciclo di vita“, ha dichiarato il NCSC.
Ciò include il design sicuro, lo sviluppo sicuro, l’implementazione sicura e il funzionamento e la manutenzione sicura, coprendo tutte le aree significative nello sviluppo del sistema IA, richiedendo alle organizzazioni di modellare le minacce ai loro sistemi e proteggere le loro catene di approvvigionamento e infrastrutture.
L’obiettivo, hanno sottolineato le agenzie, è anche combattere gli attacchi dei criminali informatici rivolti ai sistemi di intelligenza artificiale e di apprendimento automatico (ML) che mirano a causare comportamenti non intenzionali in vari modi, compresi l’influenzare la classificazione di un modello, consentire agli utenti di compiere azioni non autorizzate ed estrarre informazioni sensibili.
“Esistono molteplici modi per ottenere questi effetti, come gli attacchi di iniezione rapida nel dominio dei grandi modelli di lingua (LLM), o la corruzione deliberata dei dati di addestramento o del feedback dell’utente (noto come ‘data poisoning‘)“, ha detto infine il NCSC.
Alcune brevi considerazioni
Bisogn a fare alcune brevi considerazioni su queste nuove linee guida che riflettono l’impegno crescente nel garantire la sicurezza nell’ambito dell’intelligenza artificiale.
L’approccio “secure by design” sottolinea l’importanza di integrare la sicurezza fin dalle fasi iniziali dello sviluppo dell’IA, evidenziando la necessità di considerare minuziosamente le minacce, proteggere le catene di approvvigionamento e rispondere prontamente alle vulnerabilità.
L’istituzione di un sistema di bug bounty (letteralmente una “caccia alla taglia” dei bug) evidenza il riconoscimento dell’importanza della collaborazione e della condivisione di informazioni nella rilevazione e risoluzione tempestiva di potenziali rischi e queste linee guida, promosse attraverso la collaborazione internazionale, rappresentano un passo significativo verso un approccio più uniforme e globale alla sicurezza nell’ambito dell’IA, fondamentale per mitigare le sfide emergenti e costruire una base solida per l’adozione sicura di questa tecnologia avanzata.