Con l’intelligenza artificiale generativa che sta diventando parecchio di moda in questi ultimi tempi, non sorprende che la tecnologia sia stata riproposta da criminali informatici a loro vantaggio, aprendo vie per un’accelerazione dei crimini informatici, parliamo di WormGPT, ma andiamo con ordine.
Cosa sarebbe WormGPT?
Secondo quanto emerso da SlashNext, uno strumento di cybercrime generativo AI chiamato WormGPT è stato pubblicizzato su forum clandestini come un modo per gli avversari di lanciare sofisticati attacchi di phishing e di compromissione delle email aziendali (BEC).
“Questo strumento si presenta come un’alternativa blackhat ai modelli GPT, progettata appositamente per attività malintenzionate“, ha detto il ricercatore di sicurezza Daniel Kelley. “I criminali informatici possono utilizzare tale tecnologia per automatizzare la creazione di email contraffatte altamente convincenti, personalizzate per il destinatario, aumentando così le possibilità di successo dell’attacco.”
L’autore del software lo ha descritto come il “più grande nemico del noto ChatGPT” che “ti consente di fare ogni sorta di attività illegale“.
Nelle mani di persone non proprio ben intenzionati, strumenti come WormGPT potrebbero essere un’arma potente, soprattutto mentre OpenAI ChatGPT e Google Bard stanno compiendo sempre più passi per combattere l’abuso di modelli di linguaggio di grandi dimensioni (LLM) per fabbricare email di phishing convincenti e generare codice dannoso.
“I limitatori anti-abuso di Bard nel campo della cybersecurity sono significativamente inferiori rispetto a quelli di ChatGPT“, ha affermato Check Point, azienda israeliana di sicurezza informatica, in un rapporto di questa settimana. “Di conseguenza, è molto più facile generare contenuti dannosi utilizzando le capacità di Bard.”
All’inizio di febbraio di quest’anno, l’azienda israeliana di sicurezza informatica ha rivelato come i criminali informatici stiano aggirando le restrizioni di ChatGPT approfittando della sua API, senza contare la negoziazione di account premium rubati e la vendita di software di forza bruta per hackerare gli account di ChatGPT utilizzando enormi liste di indirizzi email e password.
Il fatto che WormGPT operi senza alcun limite etico sottolinea la minaccia rappresentata dall’IA generativa, permettendo anche ai cybercriminali novizi di lanciare attacchi rapidamente e su vasta scala senza avere le competenze tecniche per farlo.
Peggiorando le cose, i malintenzionati stanno promuovendo “jailbreak” per ChatGPT, elaborando prompt e input specializzati che sono progettati per manipolare lo strumento in modo da generare output che potrebbe coinvolgere la divulgazione di informazioni sensibili, la produzione di contenuti inappropriati ed eseguire codice dannoso.
“L’IA generativa può creare email con una grammatica impeccabile, rendendole sembrare legittime e riducendo la probabilità di essere segnalate come sospette“, ha detto Kelley.
“L’uso di IA generativa democratizza l’esecuzione di attacchi BEC sofisticati. Anche gli aggressori con competenze limitate possono utilizzare questa tecnologia, rendendola uno strumento accessibile per una gamma più ampia di criminali informatici.”
La divulgazione avviene mentre i ricercatori di Mithril Security hanno “modificato chirurgicamente” un modello AI open-source esistente noto come GPT-J-6B per diffondere disinformazione e lo hanno caricato su un repository pubblico come Hugging Face che potrebbe poi essere integrato in altre applicazioni, portando a quello che viene definito avvelenamento della catena di fornitura di LLM.
Il successo della tecnica, chiamata PoisonGPT, si basa sul presupposto che il modello “crackato” venga caricato utilizzando un nome che impersona un’azienda conosciuta, in questo caso, una versione typosquattata di EleutherAI, l’azienda dietro GPT-J.
Considerazioni
Mentre le tecnologie come ChatGPT e Bard cercano di combattere l’abuso dei modelli di linguaggio di grandi dimensioni, emergono strumenti come WormGPT che sfruttano questa stessa tecnologia per scopi malintenzionati, e non saranno sicuramente le ultime.
È fondamentale che la comunità di sicurezza informatica e gli sviluppatori di IA lavorino insieme per sviluppare contromisure efficaci contro gli attacchi generativi, ed è quindi necessario stabilire restrizioni più rigide, limitare l’accesso e aumentare la consapevolezza sulle potenziali minacce associate a tali strumenti.
Inoltre, gli utenti e le aziende devono essere consapevoli di queste nuove minacce e adottare misure di sicurezza adeguate, come l’educazione sulla consapevolezza del phishing, l’implementazione di autenticazioni a più fattori e la verifica attenta delle email sospette.
La corsa all’IA generativa offre opportunità senza precedenti per l’innovazione, ma è al contempo un grande rischio in molti settori (ma questo andrebbe analizzato in un’altra sede), ma dobbiamo affrontare le conseguenze negative che essa comporta; solo attraverso la collaborazione e l’adozione di misure preventive possiamo garantire un futuro digitale più sicuro e proteggere le persone dalle conseguenze dannose dei cybercriminali che sfruttano queste tecnologie.