I ricercatori di chimica, biologia e medicina si rivolgono sempre più spesso ai modelli di intelligenza artificiale (IA) per sviluppare nuove ipotesi.
Spesso non è chiaro su quale base gli algoritmi arrivino alle loro conclusioni e in che misura queste possano essere generalizzate; tuttavia una pubblicazione dell’Università di Bonn mette ora in guardia contro possibili malintesi nell’utilizzo dell’intelligenza artificiale, ma allo stesso tempo, evidenzia le condizioni in cui i ricercatori possono ragionevolmente riporre fiducia nei modelli.
Lo studio è stato pubblicato sulla rivista Cell Reports Physical Science.
Chimica e intelligenza artificiale: quali i benefici?
Gli algoritmi di apprendimento automatico adattivo sono incredibilmente potenti. Tuttavia, hanno uno svantaggio: il modo in cui questi modelli arrivano alle loro previsioni spesso non è evidente dall’esterno.
Supponiamo di “dare in pasto” all’intelligenza artificiale migliaia di foto di automobili e che se le si presenta una nuova immagine, sarà in grado, nella maggior parte dei casi, di riconoscere se si tratta o meno di un’auto.
Ma perché? Ha davvero imparato che un’auto ha quattro ruote, un parabrezza e uno scarico? Oppure prende le sue decisioni basandosi su criteri in realtà irrilevanti, come ad esempio l’antenna sul tetto? Se così fosse, potrebbe anche classificare una radio come un’automobile.
I modelli di IA sono scatole nere
«I modelli di IA sono delle scatole nere», sottolinea il Prof. Jürgen Bajorath. “Per questo motivo, non bisognerebbe fidarsi ciecamente dei loro risultati né trarre conclusioni affrettate“. L’esperto di chimica computazionale è a capo del dipartimento “IA nelle Scienze della Vita” presso il Lamarr Institute for Machine Learning and Artificial Intelligence.
Lui dirige inoltre il programma di Informatica per le Scienze della Vita al Bonn-Aachen International Center for Information Technology (b-it) dell’Università di Bonn e nella pubblicazione attuale ha indagato la questione di quando ci si possa ragionevolmente fidare degli algoritmi e, al contrario, quando non farlo.

Il concetto di “spiegabilità” gioca un ruolo importante in questo contesto. In senso metaforico, si tratta degli sforzi nella ricerca sull’IA per aprire un “spioncino” nella scatola nera. L’algoritmo dovrebbe rivelare i criteri su cui basa le sue decisioni – le quattro ruote o l’antenna, ad esempio. “Aprire la scatola nera è attualmente un tema centrale nella ricerca sull’IA“, afferma Bajorath, aggiungendo che “Alcuni modelli di intelligenza artificiale vengono sviluppati esclusivamente per rendere più comprensibili i risultati di altri modelli“.
Tuttavia, la spiegabilità è solo un aspetto che è altrettanto importante la questione di quali conclusioni si possano trarre dai criteri decisionali scelti da un modello; se l’algoritmo rivela di aver basato la sua decisione sull’antenna, un essere umano capisce subito che questa caratteristica è scarsamente adatta per identificare un’automobile.
Ciononostante, i modelli adattivi vengono generalmente utilizzati per individuare correlazioni in grandi set di dati che potrebbero sfuggire all’occhio umano; in codesti casi, ci comportiamo come alieni che non sanno cosa sia realmente un’auto: un alieno non saprebbe dire se un’antenna sia un buon criterio oppure no.
I modelli linguistici di chimica suggeriscono nuovi composti
“C’è un’altra domanda che dobbiamo sempre porci quando utilizziamo procedure di IA nella scienza“, sottolinea Bajorath, che è anche membro dell’area di ricerca transdisciplinare (TRA) “Modeling”: “Quanto sono interpretabili i risultati?” I modelli linguistici chimici sono attualmente un tema caldo nella ricerca chimica e farmaceutica.
È possibile, ad esempio, fornire loro molti dati su molecole con una certa attività biologica. Sulla base di questi dati, il modello apprende e, idealmente, suggerisce una nuova molecola che possiede anch’essa quell’attività, ma con una struttura diversa e questo processo è noto come modellazione generativa. Tuttavia, di solito il modello non è in grado di spiegare perché arrivi a quella soluzione: è spesso necessario applicare successivamente metodi di IA spiegabile.
Ciononostante, Bajorath mette in guardia dal sovrainterpretare queste spiegazioni, cioè dal supporre che le caratteristiche considerate importanti dall’IA siano effettivamente la causa dell’attività desiderata. “I modelli attuali di IA non comprendono praticamente nulla della chimica“, afferma e continua: “Sono puramente statistici e correlativi per natura, e prestano attenzione a qualsiasi caratteristica distintiva, indipendentemente dal fatto che sia rilevante dal punto di vista chimico o biologico.“, ma nonostante ciò, potrebbero comunque avere ragione, è possibile che la molecola suggerita abbia effettivamente le proprietà desiderate.
Le ragioni, però, potrebbero essere del tutto diverse da quelle che ci aspetteremmo sulla base della conoscenza chimica o dell’intuizione e per valutare la potenziale causalità tra le caratteristiche identificate e gli effetti naturali associati, di solito sono necessari esperimenti: i ricercatori devono sintetizzare e testare la molecola, oltre ad altre molecole con lo stesso motivo strutturale che l’IA ritiene importante.
I controlli di plausibilità sono fondamentali
Questi test sono lunghi e costosi; Bajorath mette quindi in guardia dal sovrainterpretare i risultati dell’IA nella ricerca di relazioni causali scientificamente plausibili.
A suo avviso, un controllo di plausibilità basato su solide basi scientifiche è di importanza cruciale: la caratteristica suggerita dall’IA spiegabile può realmente essere responsabile della proprietà chimica o biologica desiderata? Vale la pena seguire la proposta dell’IA? Oppure si tratta probabilmente di un artefatto, una correlazione casuale come l’antenna dell’auto, che in realtà non è affatto rilevante per la funzione effettiva?
Lo scienziato sottolinea che l’uso degli algoritmi adattivi ha, in linea di principio, il potenziale per far progredire notevolmente la ricerca in molte aree scientifiche, ma è fondamentale essere consapevoli dei punti di forza di questi approcci, soprattutto delle loro debolezze.
Il dibattito sull’uso intelligenza artificiale sulla chimica è tutt’ora aperto.