Un uomo della Florida, Phillip Michael McCorkle, è stato arrestato con l’accusa di aver creato e distribuito materiale pedopornografico utilizzando un generatore di immagini basato su intelligenza artificiale. L’arresto, avvenuto la scorsa settimana mentre McCorkle lavorava in un cinema a Vero Beach, ha portato alla formulazione di 20 capi d’imputazione per oscenità. Questo caso mette in evidenza i pericoli crescenti dell’uso improprio della tecnologia AI per scopi criminali.
Un arresto drammatico
L’indagine contro McCorkle è partita dopo che l’ufficio dello sceriffo della contea di Indian River ha ricevuto segnalazioni riguardanti l’uso di intelligenza artificiale per creare immagini pedopornografiche, successivamente distribuite tramite l’app di social media Kik. L’arresto è stato ripreso da una troupe televisiva di CBS 12 News, che ha documentato il momento in cui le forze dell’ordine hanno ammanettato McCorkle in uniforme e lo hanno portato via dal cinema.
L’intelligenza artificiale come strumento per il crimine in Florida
Questo arresto fa parte di una più ampia operazione della contea mirata a catturare persone in possesso di materiale pedopornografico. Tuttavia, ciò che rende questo caso particolarmente preoccupante è l’uso dell’intelligenza artificiale generativa per produrre tale materiale. La capacità di creare immagini realistiche utilizzando software AI open source sta aprendo nuove possibilità per la criminalità, complicando ulteriormente gli sforzi per combattere gli abusi sui minori.
Un problema in crescita
Il crescente utilizzo dell’intelligenza artificiale per generare immagini di abusi sessuali su minori ha portato i legislatori a cercare nuove soluzioni legali. Nonostante le iniziative, fermare la diffusione di questo tipo di materiale si rivela un compito arduo. Nel 2023, il National Center for Missing & Exploited Children ha ricevuto oltre 4.700 segnalazioni di pornografia infantile generata tramite AI, con alcuni criminali che utilizzano la tecnologia per creare deepfake di bambini reali con l’intento di estorcere denaro.
Uno studio della Stanford University ha inoltre evidenziato come centinaia di immagini di abusi sessuali su minori siano state trovate all’interno di set di dati utilizzati per addestrare sistemi di intelligenza artificiale generativa. Questo suggerisce che il problema potrebbe essere molto più diffuso di quanto si pensi.
Una sfida complessa
Il direttore tecnico della Internet Watch Foundation, Dan Sexton, ha dichiarato che il contenuto pedopornografico generato tramite AI è spesso creato utilizzando software open source, scaricati e modificati localmente sui computer degli utenti. Questo rende la situazione ancora più difficile da controllare e risolvere.