Tech iCrewPlay.comTech iCrewPlay.com
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensione
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Cerca
  • Videogiochi
  • Libri
  • Cinema
  • Anime
  • Arte
Copyright © Alpha Unity. Tutti i diritti riservati.​
Lettura: Intelligenza artificiale in ambito medico: i rischi delle allucinazioni nelle trascrizioni con Whisper di OpenAI
Share
Notifica
Ridimensionamento dei caratteriAa
Tech iCrewPlay.comTech iCrewPlay.com
Ridimensionamento dei caratteriAa
  • Videogiochi
  • Libri
  • Cinema
  • Anime
  • Arte
Cerca
  • Scienza
  • Spazio
  • Natura
    • Cambiamenti climatici
  • Curiosità
  • Salute
  • Recensione
  • Tecnologia
    • App e software
    • Prodotti Audio
    • Domotica e IoT
    • Elettrodomestici
    • Guide
    • Hardware e periferiche
    • Notebook e PC
    • Smartphone e tablet
    • Visione Digitale
    • Wearable
    • Cronologia
    • Seguiti
    • Segui
Seguici
  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer
Copyright © Alpha Unity. Tutti i diritti riservati.​
NotiziaIntelligenza Artificiale

Intelligenza artificiale in ambito medico: i rischi delle allucinazioni nelle trascrizioni con Whisper di OpenAI

Intelligenza artificiale e sanità: un'indagine svela i rischi dell'uso di trascrizioni AI in ambito medico, tra errori e allucinazioni preoccupanti

Massimo 8 mesi fa Commenta! 3
SHARE

L’uso dell’intelligenza artificiale nella sanità è sempre più comune, ma un recente studio dell’Associated Press solleva dubbi inquietanti su Whisper, uno strumento di trascrizione basato su AI creato da OpenAI. Sebbene pensato per trascrivere dialoghi in modo rapido e automatico, Whisper presenta allucinazioni frequenti: errori in cui l’AI “inventa” dettagli non presenti nelle conversazioni originali, tra cui farmaci inesistenti, atti sessuali e commenti di natura razziale. Questi errori si mostrano particolarmente preoccupanti per il loro impatto potenziale sulla sanità, dove ogni trascrizione dovrebbe essere precisa.

Contenuti di questo articolo
Whisper e Nabla: una tecnologia non ancora pronta per la sanitàL’affidabilità delle trascrizioni in sanità: un rischio per i pazientiI pericoli delle “allucinazioni” nelle trascrizioni AILe conseguenze dell’uso improprio dell’AI in medicina

Whisper e Nabla: una tecnologia non ancora pronta per la sanità

Nabla, una società che utilizza Whisper per trascrivere e riassumere interazioni tra medici e pazienti, ha distribuito il sistema in oltre 30.000 centri sanitari, ignorando l’avvertimento di OpenAI di evitare il suo utilizzo in “ambiti ad alto rischio”. Gli errori sono diffusi: secondo uno studio, il 40% delle trascrizioni contiene errori potenzialmente dannosi. Gli esperti ritengono che questi errori siano troppo gravi per essere ignorati, come ha commentato Alondra Nelson, docente dell’Institute for Advanced Study, sottolineando la necessità di standard più elevati.

Whisper

L’affidabilità delle trascrizioni in sanità: un rischio per i pazienti

Gli errori di Whisper non si limitano a semplici inesattezze. In alcuni casi, il modello ha “allucinato” farmaci inesistenti o dettagli immaginari che potrebbero fuorviare i medici e mettere a rischio la sicurezza dei pazienti. La situazione è aggravata dal fatto che Nabla elimina le registrazioni audio originali per motivi di sicurezza, lasciando come unico riferimento la trascrizione dell’AI. Questo processo rende impossibile verificare la correttezza delle informazioni riportate, privando gli operatori sanitari di una base di confronto per controllare gli errori.

Leggi Altro

La Nube di Oort ha una spirale (e non doveva): la scoperta shock nata… da uno show al planetario
Roll Cloud: un approfondimento sulle spettacolari nubi a rotolo avvistate in Portogallo
Il super telescopio Rubin ha acceso la fotocamera più grande del mondo: ecco milioni di galassie mai viste prima
Gli scienziati hanno scoperto che mangiare troppi latticini potrebbe rovinare il sonno

I pericoli delle “allucinazioni” nelle trascrizioni AI

L’uso di Whisper ha dimostrato di non essere immune a errori e allucinazioni anche su file audio di alta qualità. Uno dei maggiori problemi riscontrati è l’inserimento di commenti completamente inventati, come il “mi piace e iscriviti” tipico di YouTube, o addirittura frasi inappropriate che potrebbero travisare i contenuti effettivi delle conversazioni mediche. Il modello di Whisper ha quindi dimostrato di essere suscettibile all’inserimento di informazioni estranee, aumentando i rischi di malintesi nelle cartelle cliniche e nella gestione del paziente.

We noticed in 2023 that, even when an audio file had ended, Whisper had a habit of hallucinating additional sentences that were never spoken. And, re-running Whisper on the same file yielded different hallucinations – see below example (hallucinations in red) (1/14) pic.twitter.com/uXrI6P58gj

— Allison Koenecke (@allisonkoe) June 3, 2024

Le conseguenze dell’uso improprio dell’AI in medicina

L’uso di tecnologie non ancora perfette in sanità rappresenta una preoccupazione crescente per i professionisti del settore. William Saunders, un ingegnere ricercatore che ha lasciato OpenAI per protesta, ha sottolineato come eliminare le registrazioni originali renda impossibile individuare errori, lasciando i pazienti vulnerabili a errori potenzialmente pericolosi.

Nabla ha dichiarato di essere a conoscenza delle limitazioni e di voler migliorare la tecnologia. Tuttavia, la diffusione di una soluzione ancora instabile in un ambito delicato come la sanità è una questione che merita una valutazione etica più approfondita.

Condividi questo articolo
Facebook Twitter Copia il link
Share
Cosa ne pensi?
-0
-0
-0
-0
-0
-0
lascia un commento lascia un commento

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer

Copyright © Alpha Unity. Tutti i diritti riservati.​

  • Contatto
  • Media Kit
  • Chi siamo
  • Lavora con noi
  • Cookie Policy
  • Disclaimer
Bentornato in iCrewPlay!

Accedi al tuo account

Hai dimenticato la password?