Un dibattito che negli ultimi anni coinvolge il settore dell’Intelligenza Artificiale (IA o AI) è quello dell’etica degli algoritmi. In particolare, del legame AI-etica che esiste o che dovrebbe esistere.
AI-etica: l’intelligenza artificiale è davvero imparziale?
Se infatti un algoritmo, cinico e apatico, dovrebbe essere quanto di più imparziale al mondo, così non è, sono moltissimi gli esempi di problemi etici e di imparzialità dovuti agli algoritmi di IA.
Alcuni esempi sono: gli algoritmi di generazione di immagini che auto-completano immagini parziali di donne con un top scollato o un bikini, o un algoritmo di creazione del testo (GPT-3) che ha una tendenza esplicita a collegare i musulmani alla violenza.
Mykola Pechenizkiy, professore di Data Mining alla University of Technology di Eindhoven e uno dei pionieri dell’IA etica spiega che:
“L’IA ha un problema di bias. Le sue previsioni riflettono necessariamente i dati su cui si basano, che, come sappiamo, sono spesso distorti in modi che rafforzano le disuguaglianze esistenti nella società. O, come piace dire agli analisti di dati: spazzatura dentro, spazzatura fuori”.
L’IA sta entrando sempre di più nelle nostre vite e i suoi pregiudizi possono creare dei problemi sempre più marcati e determinanti nella vita di tutti i giorni.
Consideriamo, per esempio, l’analitica predittiva che può classificare i pazienti come potenziali infetti da Coronavirus basandosi sui dati degli esami del sangue di routine, o prevedere i richiami in ospedale dei pazienti con insufficienza cardiaca utilizzando una rete neurale basata sull’attenzione.
Supponiamo che negli esempi descritti l’IA faccia una stima diversa (a priori) a seconda che il paziente sia nero o bianco, che sia uomo o donna. Si può capire come il bias (pregiudizio) della IA possa arrecare gravissimi danni alle persone e al sistema sanitario.
Ovviamente l’IA, come sottolineato da Mykola Pechenizkiy, non sbaglia di proposito perché ha qualche sentimento di razzismo o misoginia, ma solamente perché è stata addestrata con un numero sbilanciato di dati, ad esempio con un numero 100 volte superiore di uomini bianchi rispetto a donne nere. Come evidenzia il professor Pechenizkiy:
“Al giorno d’oggi, l’AI e l’apprendimento automatico sono strettamente legati all’equità e alla non discriminazione.
Se si costruisce un algoritmo che aiuta i datori di lavoro a decidere chi deve essere invitato per un colloquio di lavoro, non solo dovrebbe essere accurato, ma anche rispettare i diversi aspetti della diversità, ed essere legalmente ed eticamente conforme.
O se si progetta un sistema AI per diagnosticare il cancro alla pelle, dovrebbe funzionare sia per gli uomini che per le donne, e sia per le persone di pelle più chiara che più scura”.
Secondo il docente ucraino, gli scienziati informatici dovrebbe concentrarsi maggiormente su questi problemi etici, e ci dovrebbe essere un maggior sforzo da parte della comunità scientifica nello sviluppo di modelli che siano spiegabili e certificabili:
Dobbiamo iniziare a pensare a come proprietà importanti come l’equità e la privacy possano essere formalizzate, come possiamo integrarle nei cicli di ricerca e sviluppo e propagarle nelle pipeline di apprendimento automatico. Certo, i dati sono sempre distorti in qualche modo, e disordinati in molti modi.
Ma sviluppando modelli che sono spiegabili e certificabili, possiamo assicurare che l’IA sia affidabile per progettazione, riflettendo sia il suo valore aggiunto che le sue vulnerabilità.
Allo stesso modo evidenzia come non si debba neppure esagerare:
“Molta ricerca in informatica è solo questo: semplice scienza, con probabilmente nessun impatto etico.
L’etica è importante, ma ricordate: se non avete l’IA, non avete l’etica nell’IA.
A volte la gente tende a dimenticarlo!”
Se vuoi approfondire l’argomento AI-etica, ne avevamo già parlato in questo articolo e ti consiglio di ascoltare il video-talk qua sotto.