L’uso dell’intelligenza artificiale nella sanità è sempre più comune, ma un recente studio dell’Associated Press solleva dubbi inquietanti su Whisper, uno strumento di trascrizione basato su AI creato da OpenAI. Sebbene pensato per trascrivere dialoghi in modo rapido e automatico, Whisper presenta allucinazioni frequenti: errori in cui l’AI “inventa” dettagli non presenti nelle conversazioni originali, tra cui farmaci inesistenti, atti sessuali e commenti di natura razziale. Questi errori si mostrano particolarmente preoccupanti per il loro impatto potenziale sulla sanità, dove ogni trascrizione dovrebbe essere precisa.
Whisper e Nabla: una tecnologia non ancora pronta per la sanità
Nabla, una società che utilizza Whisper per trascrivere e riassumere interazioni tra medici e pazienti, ha distribuito il sistema in oltre 30.000 centri sanitari, ignorando l’avvertimento di OpenAI di evitare il suo utilizzo in “ambiti ad alto rischio”. Gli errori sono diffusi: secondo uno studio, il 40% delle trascrizioni contiene errori potenzialmente dannosi. Gli esperti ritengono che questi errori siano troppo gravi per essere ignorati, come ha commentato Alondra Nelson, docente dell’Institute for Advanced Study, sottolineando la necessità di standard più elevati.
L’affidabilità delle trascrizioni in sanità: un rischio per i pazienti
Gli errori di Whisper non si limitano a semplici inesattezze. In alcuni casi, il modello ha “allucinato” farmaci inesistenti o dettagli immaginari che potrebbero fuorviare i medici e mettere a rischio la sicurezza dei pazienti. La situazione è aggravata dal fatto che Nabla elimina le registrazioni audio originali per motivi di sicurezza, lasciando come unico riferimento la trascrizione dell’AI. Questo processo rende impossibile verificare la correttezza delle informazioni riportate, privando gli operatori sanitari di una base di confronto per controllare gli errori.
I pericoli delle “allucinazioni” nelle trascrizioni AI
L’uso di Whisper ha dimostrato di non essere immune a errori e allucinazioni anche su file audio di alta qualità. Uno dei maggiori problemi riscontrati è l’inserimento di commenti completamente inventati, come il “mi piace e iscriviti” tipico di YouTube, o addirittura frasi inappropriate che potrebbero travisare i contenuti effettivi delle conversazioni mediche. Il modello di Whisper ha quindi dimostrato di essere suscettibile all’inserimento di informazioni estranee, aumentando i rischi di malintesi nelle cartelle cliniche e nella gestione del paziente.
Le conseguenze dell’uso improprio dell’AI in medicina
L’uso di tecnologie non ancora perfette in sanità rappresenta una preoccupazione crescente per i professionisti del settore. William Saunders, un ingegnere ricercatore che ha lasciato OpenAI per protesta, ha sottolineato come eliminare le registrazioni originali renda impossibile individuare errori, lasciando i pazienti vulnerabili a errori potenzialmente pericolosi.
Nabla ha dichiarato di essere a conoscenza delle limitazioni e di voler migliorare la tecnologia. Tuttavia, la diffusione di una soluzione ancora instabile in un ambito delicato come la sanità è una questione che merita una valutazione etica più approfondita.