Una proposta controversa avanzata dall’Unione Europea per scansionare i messaggi privati degli utenti allo scopo di rilevare materiale di abuso sessuale su minori (CSAM) comporta gravi rischi per la crittografia end-to-end (E2EE), ha avvertito Meredith Whittaker, presidente della Signal Foundation, che mantiene il servizio di messaggistica incentrato sulla privacy con lo stesso nome.
Le dichiarazioni del presidente della Signal Foundation sul potenziale pericolo della privacy
“Imporre la scansione di massa delle comunicazioni private mina fondamentalmente la crittografia. Punto“, ha dichiarato il presidente della Signal Foundation in un comunicato lunedì, aggiungendo: “Che ciò avvenga attraverso la manomissione, ad esempio, della generazione di numeri casuali di un algoritmo di crittografia, o implementando un sistema di custodia delle chiavi, o costringendo le comunicazioni a passare attraverso un sistema di sorveglianza prima di essere criptate.”

La risposta arriva mentre i legislatori in Europa stanno proponendo regolamenti per combattere il CSAM con una nuova disposizione chiamata “moderazione dei caricamenti” che permette ai messaggi di essere scrutinati prima della crittografia.
Un recente rapporto di Euractiv ha rivelato che le comunicazioni audio sono escluse dall’ambito della legge e che gli utenti devono acconsentire a questa rilevazione sotto i termini e le condizioni del fornitore del servizio.
“Coloro che non acconsentono possono comunque utilizzare parti del servizio che non implicano l’invio di contenuti visivi e URL“, ha ulteriormente riportato.
I rapporti di Europol sull’industria tecnologica
Europol, a fine aprile 2024, ha invitato l’industria tecnologica e i governi a dare priorità alla sicurezza pubblica, avvertendo che misure di sicurezza come l’E2EE potrebbero impedire alle forze dell’ordine di accedere a contenuti problematici, riaccendendo un dibattito in corso sul bilanciamento tra privacy e lotta ai crimini gravi.

Ha anche chiesto alle piattaforme di progettare sistemi di sicurezza in modo tale che possano comunque identificare e segnalare attività dannose e illegali alle forze dell’ordine, senza entrare nei dettagli dell’implementazione.
Un episodio simile precedentemente fermato
Il produttore di iPhone Apple ha annunciato famosamente piani per implementare uno screening lato client per il materiale di abuso sessuale su minori (CSAM), ma ha abbandonato l’idea a fine 2022 dopo una sostenuta reazione negativa da parte di sostenitori della privacy e della sicurezza.
“Scansionare un tipo di contenuto, ad esempio, apre la porta alla sorveglianza di massa e potrebbe creare il desiderio di cercare altri sistemi di messaggistica criptati attraverso tipi di contenuto“, ha detto l’azienda all’epoca, spiegando la sua decisione. Ha anche descritto il meccanismo come una “china scivolosa di conseguenze non intenzionali.”
La conclusione del CEO della Signal Foundation
Whittaker, presidente di Signal Foundation, ha inoltre affermato che chiamare l’approccio “moderazione dei caricamenti” è un gioco di parole che equivale a inserire una backdoor (o una front door), creando effettivamente una vulnerabilità di sicurezza pronta per essere sfruttata da attori malevoli e vari criminali informatici di altri paesi.

“O la crittografia end-to-end protegge tutti, e sancisce sicurezza e privacy, o è rotta per tutti“, ha detto, e il presidente della Signal Foundation non si è affatto risparmiata: “E rompere la crittografia end-to-end, particolarmente in un momento geopoliticamente volatile, è una proposta disastrosa.”
Non solo Signal Foundation, anche altri non sono convinti
Anche il servizio di messaggistica criptata Threema si è fortemente opposto alla cosiddetta legge Chat Control, affermando che il passaggio della legge potrebbe gravemente compromettere la privacy e la riservatezza dei cittadini dell’UE e dei membri della società civile.
“Non importa come la Commissione Europea sta cercando di venderlo – come ‘scansione lato client,’ ‘moderazione dei caricamenti,’ o ‘rilevamento AI’ – Chat Control è ancora sorveglianza di massa,” ha detto la compagnia svizzera. “E indipendentemente dalla sua implementazione tecnica, la sorveglianza di massa è sempre un’idea incredibilmente cattiva.”