Vietato regolare l’intelligenza artificiale. Per dieci anni. Ovunque.
Sembra una battuta da bar tra lobbisti di Silicon Valley, invece è una proposta reale inserita nell’ultima bozza del Budget Reconciliation Bill firmata Partito Repubblicano (e definita da Trump come “una grande, bellissima legge”).
La clausola, se approvata, vieterebbe agli Stati americani di legiferare sull’AI fino al 2035.
Risultato? Le big tech potrebbero fare il bello e il cattivo tempo, senza regole né freni.
141 voci contro: “Un regalo pericoloso ai CEO di Big Tech”

Non è passata inosservata.
141 organizzazioni, tra università, sindacati, policy group e ONG, hanno firmato una lettera aperta per chiedere di bloccare la norma.
Il messaggio è chiaro: dare carta bianca all’AI per 10 anni è una follia.
Non solo perché siamo davanti a una tecnologia in continua evoluzione, ma perché sta già influenzando:
- Assunzioni e selezione del personale
- Accesso alla casa
- Sanità e diagnosi
- Sicurezza e sorveglianza
- Finanza e credito
E senza regolamenti? Chi risponde quando qualcosa va storto?
L’articolo killer: nessuna eccezione, nessuna responsabilità
La proposta vieterebbe a qualsiasi Stato o ente locale di “applicare leggi o regolamenti che riguardano l’intelligenza artificiale, i modelli o i sistemi automatizzati”.
Tradotto: nessuno può mettere bocca, anche se un algoritmo fa danni documentati, anche se c’è dolo.
L’azienda? Protetta. Il cittadino? Buona fortuna.
Emily Peterson-Cassin (Demand Progress) lo definisce “un regalo pericoloso ai CEO di Big Tech”, che vogliono inserire sistemi AI incompleti in ogni ambito della nostra vita — senza dover rispondere a nessuno.
Il paradosso: regolare l’AI può favorire l’innovazione

Sì, hai letto bene.
Secondo la lettera, regolare bene una tecnologia non la rallenta, ma anzi:
- Crea fiducia
- Aumenta l’adozione
- Spinge a progettare sistemi migliori, sicuri e trasparenti
“Solo se le persone si fidano dell’AI, potranno usarla davvero,” si legge nel documento.
E con fiducia non si intende quella cieca verso OpenAI o Google, ma la fiducia basata su tutele legali.
La domanda vera è: di chi è il futuro dell’intelligenza artificiale?
Degli ingegneri che la costruiscono?
Dei miliardari che ci investono?
O delle persone che la subiranno (o useranno) ogni giorno?
Questa proposta sposta tutto il potere dalla società civile alle boardroom della Silicon Valley.
E se passa, non ci sarà appello per dieci lunghissimi anni.
E tu, ti fideresti di un’AI senza freni per un decennio? O pensi che servano regole chiare prima che sia troppo tardi?
→ Seguici su Instagram per altri approfondimenti reali (e inquietanti) su come l’AI sta già riscrivendo le regole del mondo.