Meta ha sospeso l’uso dell’intelligenza artificiale generativa (altresì detta GenAI) in Brasile dopo che l’autorità per la protezione dei dati del paese ha emesso un divieto preliminare obiettando alla sua nuova politica sulla privacy.
Infatti di recente META si è dovuta confrontare con il governo brasiliano (con l’ANPD, precisamente), poiché il suo modello di intelligenza artificiale generativo, non solo viola le leggi del Brasile, ma a quanto sembra viola anche (e soprattutto) la privacy delle persone.
Com’è iniziato lo scandalo di META con GenAI in Brasile
Lo sviluppo riguardo alla GenAI di META è stato riportato per la prima volta dall’agenzia di stampa Reuters.
La società proprietà di Mark Zuckerberg ha dichiarato di aver deciso di sospendere gli strumenti mentre è in trattative con l’Autorità Nazionale per la Protezione dei Dati (ANPD) del Brasile per affrontare le preoccupazioni dell’agenzia riguardo l’uso della tecnologia GenAI.
All’inizio di questo mese, l’ANPD ha interrotto con effetto immediato la nuova politica sulla privacy del gigante dei social media che concedeva alla società l’accesso ai dati personali degli utenti per addestrare i suoi sistemi di GenAI.
La decisione deriva dal “rischio imminente di danni gravi e irreparabili o danni difficili da riparare ai diritti fondamentali dei soggetti interessati“, ha dichiarato l’agenzia.
L’ANPD del Brasile e l’ultimatum alla GenAi di META
Ha inoltre fissato una multa giornaliera di 50.000 reais (circa 9.100 dollari al 18 luglio) in caso di non conformità; la scorsa settimana, l’ANPD del Brasile ha dato a Meta “cinque giorni in più per dimostrare la conformità alla decisione.”
In risposta, Meta ha dichiarato di essere “delusa” dalla decisione dell’ANPD e che la mossa costituisce “un passo indietro per l’innovazione, la competizione nello sviluppo dell’IA e ulteriori ritardi nel portare i benefici dell’IA alle persone in Brasile.”
Non solo l’ANPD del Brasile, anche altri enti mettono in dubbio la legittimità dell’addestramento di GenAI
L’uso dei dati personali per addestrare i sistemi di IA senza il loro consenso esplicito o la conoscenza ha sollevato preoccupazioni sulla privacy, costringendo i colossi della tecnologia degli Stati Uniti a sospendere il lancio dei loro strumenti in regioni con leggi sulla privacy dei dati più severe, come l’Unione Europea.
Human Rights Watch ha riportato a giugno come le foto personali dei bambini brasiliani siano finite in dataset di descrizione delle immagini come LAION-5B, esponendoli a ulteriori sfruttamenti e danni attraverso la facilitazione di deepfake dannosi.
Oltre alla GenAi di META anche Apple ci mette la sua di GenAI
Apple, che ha annunciato un nuovo sistema di intelligenza artificiale chiamato Apple Intelligence il mese scorso, ha dichiarato che non porterà le funzionalità in Europa quest’anno a causa delle preoccupazioni normative derivanti dal Digital Markets Act (DMA).
“Siamo preoccupati che i requisiti di interoperabilità del DMA possano costringerci a compromettere l’integrità dei nostri prodotti in modi che mettono a rischio la privacy e la sicurezza dei dati degli utenti,” ha dichiarato Apple al Wall Street Journal.
Meta ha confermato ad Axios che ritirerà anche i suoi prossimi modelli di IA multimodale dai clienti nella regione a causa della “natura imprevedibile dell’ambiente normativo europeo.”
Quali sono i principali rischi di una intelligenza artifigiale generativa che viola la privacy degli utenti
Facendola molto brevemente c’è il rischio con uno strumento come la l’intelligena artificiale generativa detta anche GenAI (o strumenti analoghi) che addestrano usando volti reali (sentra tra l’altro avere il permesso), tu possa ritrovare la tua faccia su un deepfake (che sarebbe come dice il termine “falso profondo”, un video che usa volti reali su immagini create al computer ma realistiche), ciò è molto pericoloso non solo a livello di privacy degli utenti, ma anche perché qualcuno può tranquillamente farti fare cose che non hai mai fatto e metterti in bocca cose che non hai mai detto.