Un nuovo studio pubblicato su Cell Reports Medicine mette in luce un problema cruciale dell’intelligenza artificiale applicata alla sanità: i sistemi di IA utilizzati per diagnosticare il cancro a partire da vetrini istopatologici non sono ugualmente accurati per tutti i pazienti. L’accuratezza varia in base a fattori demografici come età, genere e appartenenza etnica.

La ricerca, condotta da un team della Harvard Medical School, mostra come questi bias non siano un dettaglio marginale, ma un rischio concreto per l’equità delle cure oncologiche.
Perché la patologia è sempre stata considerata “oggettiva”
Tradizionalmente, la diagnosi istopatologica è ritenuta uno degli ambiti più oggettivi della medicina. Il patologo osserva una sottilissima sezione di tessuto al microscopio e valuta esclusivamente caratteristiche biologiche: forma delle cellule, organizzazione dei tessuti, presenza di anomalie.
In teoria, il vetrino non contiene informazioni sul paziente: niente nome, età, sesso o provenienza. Proprio per questo, l’idea che un’IA possa “leggere” dati demografici da un’immagine istologica ha colto di sorpresa i ricercatori.
L’IA vede più di quanto dovrebbe
Lo studio ha dimostrato che i modelli di IA per la patologia riescono a inferire informazioni demografiche direttamente dai tessuti, anche se in modo indiretto e questa capacità, apparentemente impressionante, ha però un effetto collaterale pericoloso: introduce bias nei processi diagnostici.

Analizzando quattro modelli di deep learning molto diffusi, i ricercatori hanno osservato differenze sistematiche nelle prestazioni:
- Minore accuratezza nel distinguere sottotipi di cancro ai polmoni in pazienti afroamericani e nei pazienti maschi
- Difficoltà nella classificazione dei sottotipi di tumore al seno nelle pazienti più giovani
- Prestazioni inferiori nella rilevazione di tumori a seno, rene, tiroide e stomaco in specifici gruppi demografici
Nel complesso, circa il 29% delle attività diagnostiche analizzate mostrava disparità significative.
Da dove nasce il bias nell’IA medica
I ricercatori hanno identificato tre cause principali:
1. Dataset sbilanciati
Alcuni gruppi demografici sono sottorappresentati nei dati di addestramento. Questo è un problema noto nell’IA, ma non spiega tutto.
2. Differenze di incidenza delle malattie
Alcuni tipi di cancro sono più frequenti in determinate popolazioni. L’IA finisce quindi per “specializzarsi” su quei casi, diventando meno affidabile altrove.

3. Scorciatoie biologiche
I modelli di IA riescono a individuare segnali molecolari molto sottili, come mutazioni genetiche più comuni in certi gruppi. Questi segnali vengono usati come scorciatoie per la classificazione, ma funzionano male quando il contesto demografico cambia.
In altre parole, l’IA smette di concentrarsi solo sulla malattia e inizia – inconsapevolmente – a usare il profilo demografico come indizio diagnostico.
FAIR-Path: meno bias senza riscrivere tutto
Per affrontare il problema, il team ha sviluppato un nuovo framework chiamato FAIR-Path, basato su una tecnica di machine learning nota come contrastive learning.
L’idea è semplice ma potente:
- spingere il modello a concentrarsi sulle differenze realmente rilevanti (tra tipi di cancro)
- ridurre l’attenzione verso differenze irrilevanti dal punto di vista clinico, come quelle demografiche

Il risultato è stato quello di riduzione delle disparità diagnostiche di circa l’88%, senza dover ricostruire i dataset da zero.
Un dato importante, perché dimostra che l’equità non richiede necessariamente dati perfetti, ma modelli progettati meglio.
Perché questa ricerca conta anche fuori dagli ospedali
Questo studio è un promemoria fondamentale per tutto il settore tech:
- l’IA non è “oggettiva” per definizione
- può amplificare bias invisibili, soprattutto quando lavora su dati complessi
- serve valutazione continua, non fiducia cieca
In ambito sanitario, l’impatto è diretto: una diagnosi meno accurata significa terapie sbagliate, ritardi e disuguaglianze reali.
Il futuro dell’IA medica
Il team di Harvard sta ora collaborando con istituzioni di tutto il mondo per testare questi modelli in contesti demografici e clinici diversi. L’obiettivo è chiaro: costruire sistemi di IA che supportino i medici, senza introdurre nuove forme di discriminazione algoritmica.
Come sottolineano gli autori, l’IA può diventare uno strumento potente e giusto — ma solo se progettata con consapevolezza.