Un gruppo di tredici dipendenti ed ex dipendenti di Google e OpenAI ha recentemente pubblicato una lettera in cui esprime forti preoccupazioni sui potenziali rischi legati all’intelligenza artificiale (IA). Questi esperti, che lavorano nei due laboratori di ricerca più avanzati al mondo, mettono in guardia contro i pericoli che questa tecnologia potrebbe comportare, fino a ipotizzare la possibilità di estinzione dell’umanità.
Nel documento, intitolato “A Right to Warn about Advanced Artificial Intelligence”, viene evidenziato come i sistemi di IA autonomi potrebbero sfuggire al controllo umano e rappresentare un pericolo esistenziale. “Siamo dipendenti ed ex dipendenti di aziende all’avanguardia nell’intelligenza artificiale e crediamo che questa tecnologia possa fornire benefici senza precedenti all’umanità”, si legge nella lettera, per poi aggiungere: “Ma siamo anche consapevoli dei rischi legati all’IA, che vanno dal rafforzamento delle disuguaglianze esistenti, alla manipolazione e alla disinformazione, fino alla perdita del controllo sui sistemi di intelligenza artificiale autonomi che potrebbe determinare l’estinzione degli esseri umani”.
Il ruolo delle big tech e i conflitti di interesse
I firmatari del documento puntano il dito contro le grandi aziende tecnologiche, accusandole di non fare abbastanza per mitigare i rischi associati allo sviluppo dell’IA. Secondo loro, queste aziende hanno interessi economici troppo elevati per garantire una supervisione efficace. “Le società che sviluppano intelligenza artificiale hanno interessi economici tali da eludere una supervisione efficace,” affermano nella lettera. “Queste società possiedono informazioni riservate importanti sulle capacità e sui limiti dei loro sistemi, ma non hanno obblighi seri di condividerle con i governi o con la società civile”.
Secondo Google e OpenAI serve una protezione maggiore per i whistleblower
Il movimento “Right to Warn” chiede una maggiore protezione per i dipendenti che desiderano denunciare i rischi legati all’IA. I normali accordi di riservatezza impediscono ai lavoratori di esprimere le loro preoccupazioni pubblicamente, e le protezioni legali attuali per i whistleblower non sono sufficienti perché si concentrano su attività illegali già regolamentate. La lettera conclude chiedendo alle aziende di impegnarsi a non stipulare accordi che vietino la critica interna sui rischi legati all’IA e a non applicare ritorsioni contro i dipendenti che sollevano tali preoccupazioni.
La questione dell’intelligenza artificiale sta diventando sempre più centrale nel dibattito pubblico e scientifico. Cosa ne pensi? Le aziende tecnologiche dovrebbero essere più trasparenti sui rischi legati all’IA?