L’autorità italiana per la protezione dei dati (DPA) ha notificato a OpenAI, la società produttrice di ChatGPT, di presunte violazioni delle leggi sulla privacy nella regione, e non era passato nemmeno molto tempo dall’ultima volta in cui ChatGPT fu effettivamente bloccata sul territorio italiano, con tanto di applicazione Android dedicata.
Quali sono le violazioni di OpenAI secondo le autorità italiane
“Le prove disponibili indicavano la presenza di violazioni delle disposizioni contenute nel GDPR dell’Unione Europea [Regolamento Generale sulla Protezione dei Dati]” ha dichiarato il Garante per la protezione dei dati personali (noto anche come Garante) in una dichiarazione lunedì ed ha inoltre dichiarato che “terrà conto del lavoro in corso all’interno della task force [istituita] ad hoc istituita dal Quadro Europeo per la Protezione dei Dati (EDPB) nella sua determinazione finale sul caso.”
Lo sviluppo arriva quasi 10 mesi dopo che l’ente di vigilanza ha imposto un divieto temporaneo su ChatGPT nel paese, settimane dopo il quale OpenAI ha annunciato una serie di controlli sulla privacy, tra cui un modulo di opt-out per rimuovere i dati personali dal trattamento da parte del grande modello di linguaggio (LLM); ò’accesso allo strumento è stato successivamente ripristinato alla fine di aprile 2023.
La DPA italiana ha dichiarato che le ultime scoperte, non ancora divulgate pubblicamente, sono il risultato di un’indagine plurimensile avviata allo stesso tempo; a OpenAI sono stati concessi 30 giorni per rispondere alle accuse.
La BBC ha successivamente riferito che le violazioni sono legate alla raccolta di dati personali e alle protezioni legate all’età; pertanto OpenAI, nella sua pagina di aiuto, afferma che “ChatGPT non è destinato a bambini sotto i 13 anni, e richiediamo che i minori di età compresa tra 13 e 18 anni ottengano il consenso dei genitori prima di utilizzare ChatGPT.”
Ma ci sono anche preoccupazioni che informazioni sensibili possano essere esposte e che gli utenti più giovani possano essere esposti a contenuti inappropriati generati dal chatbot.
Infatti, Ars Technica ha riportato questa settimana che ChatGPT sta divulgando conversazioni private che includono credenziali di accesso e altri dettagli personali di utenti non correlati che si dice siano dipendenti di un portale di farmaci con prescrizione medica.
Successivamente, a settembre 2023, è emerso che il chatbot Bard di Google aveva un difetto nella funzione di condivisione che consentiva l’indicizzazione da parte di Google search di chat private, esponendo involontariamente informazioni sensibili che potevano essere state condivise nelle conversazioni.
Strumenti di intelligenza artificiale generativa come ChatGPT, Bard e Anthropic Claude dipendono dall’essere alimentati con grandi quantità di dati provenienti da diverse fonti su Internet.
In una dichiarazione condivisa dal sito TechCrunch, OpenAI ha dichiarato che le sue “pratiche sono conformi al GDPR e ad altre leggi sulla privacy, e prendiamo misure aggiuntive per proteggere i dati e la privacy delle persone.”
Apple si schiera contro una proposta di legge nel Regno Unito
Come se non bastassero i problemi di ChatGPT, proprietà di OpenAI, nel regno unito avvengono dei fatti che sono strettamente correlati a quest’ultimo.
Questo sviluppo avviene mentre Apple afferma di essere “profondamente preoccupata” per gli emendamenti proposti all’Investigatory Powers Act (IPA) del Regno Unito, che potrebbero conferire al governo un potere senza precedenti di “veto segreto” sugli aggiornamenti privacy e sicurezza dei suoi prodotti e servizi.
“È un eccesso senza precedenti da parte del governo e, se attuato, il Regno Unito potrebbe cercare di bloccare segretamente nuove protezioni per gli utenti a livello globale, impedendoci di offrirle mai ai clienti” ha dichiarato la nota azienda Apple alla BBC.
L’Home Office del Regno Unito ha affermato che l’adozione di tecnologie di comunicazione sicure, compresa la crittografia end-to-end, non può avvenire a scapito della sicurezza pubblica e della protezione della nazione da abusi sessuali su minori e terroristi; le modifiche mirano a migliorare la capacità dei servizi segreti di “rispondere con maggiore agilità e rapidità alle minacce esistenti ed emergenti per la sicurezza nazionale.”
In particolare, esse richiedono alle aziende tecnologiche che ricevono richieste di dati da parte del governo britannico di notificare al governo del Regno Unito eventuali modifiche tecniche che potrebbero influire sulle loro “capacità di accesso legale esistenti.”
“Un motore trainante per questo emendamento è dare ai partner operativi il tempo di comprendere il cambiamento e adattare le loro tecniche investigative se necessario, il che in alcune circostanze potrebbe essere tutto ciò che serve per mantenere l’accesso legale” afferma il governo britannico in un documento informativo sul sito ufficiale, aggiungendo che “non fornisce poteri al Segretario di Stato per approvare o rifiutare modifiche tecniche.”
Apple, a luglio 2023, ha dichiarato che preferirebbe smettere di offrire i servizi iMessage e FaceTime nel Regno Unito piuttosto che compromettere la privacy e la sicurezza degli utenti.