Le aziende tecnologiche sono in subbuglio: la California è sul punto di approvare una legge che potrebbe cambiare per sempre l’industria dell’intelligenza artificiale. Il disegno di legge, SB 1047, recentemente approvato dal Comitato per gli stanziamenti dell’Assemblea dello stato, mira a imporre regolamenti severi agli sviluppatori di IA per prevenire “danni gravi” causati dai modelli di intelligenza artificiale. Ma questa proposta non è ben vista dai colossi tecnologici.
Innovazione vs. regolamentazione
Mentre i sostenitori del disegno di legge affermano che è un passo necessario per proteggere il pubblico dai potenziali pericoli dell’IA, i giganti del settore come OpenAI stanno lanciando l’allarme. Secondo Bloomberg, Jason Kwon, responsabile della strategia presso OpenAI, ha espresso preoccupazione in una lettera al senatore statale Scott Wiener, promotore del disegno di legge. Kwon ha avvertito che l’SB 1047 potrebbe “minacciare la crescita, rallentare l’innovazione e spingere i migliori talenti a lasciare la California”.
Le aziende tecnologiche: prima la sicurezza
Il disegno di legge propone di conferire al procuratore generale della California il potere di intraprendere azioni legali contro le aziende che rilasciano modelli di IA non sicuri. Queste aziende potrebbero affrontare sanzioni civili, anche se non penali, se i loro modelli di IA causassero danni. Per evitare tali rischi, le aziende dovrebbero condurre rigorosi test di sicurezza, specialmente per i modelli di IA che costano più di 100 milioni di dollari per essere sviluppati o che utilizzano una potenza di calcolo significativa.
Uno degli aspetti più controversi del disegno di legge è la richiesta di un “interruttore d’emergenza” nei modelli di IA, che permetterebbe di spegnerli in situazioni di emergenza. Inoltre, gli sviluppatori dovrebbero sottoporsi a verifiche da parte di revisori esterni per garantire che le loro pratiche di sicurezza siano conformi agli standard. La legge prevede anche maggiori protezioni legali per i whistleblower che denunciano pratiche scorrette nel campo dell’IA.