Un’intelligenza artificiale può decodificare parole e frasi dall’attività cerebrale con una precisione sorprendente, ma comunque limitata, la ricerca è ancora lontana dall’aiutare le persone che non possono comunicare attraverso la parola, ma è il primo passo. Utilizzando solo pochi secondi di dati sull’attività cerebrale, l’IA indovina ciò che una persona ha percepito. Elenca la risposta corretta nelle sue prime 10 possibilità fino al 73% delle volte, hanno scoperto i ricercatori in uno studio preliminare.
“Le prestazioni dell’IA erano superiori a quelle che molte persone pensavano fosse possibile in questa fase”, afferma Giovanni Di Liberto, uno scienziato informatico del Trinity College di Dublino che non è stato coinvolto nella ricerca.
Sviluppata presso la società madre di Facebook, Meta, l’IA potrebbe alla fine sarà utilizzato per aiutare migliaia di persone in tutto il mondo incapaci di comunicare attraverso la parola, la digitazione o i gesti, riferiscono i ricercatori il 25 agosto su arXiv.org. Ciò include molti pazienti in condizioni di minima coscienza, bloccati o “stati vegetativi”, ciò che ora è generalmente noto come sindrome da veglia non reattiva.
La maggior parte delle tecnologie esistenti per aiutare questi pazienti a comunicare richiede interventi chirurgici al cervello rischiosi per impiantare elettrodi. Questo nuovo approccio “potrebbe fornire un percorso praticabile per aiutare i pazienti con deficit di comunicazione… senza l’uso di metodi invasivi”, afferma il neuroscienziato Jean-Rémi King, ricercatore Meta AI attualmente presso l’École Normale Supérieure di Parigi.
IA la ricerca potrebbe servire a poco per ora
King e i suoi colleghi hanno addestrato uno strumento computazionale per rilevare parole e frasi su 56.000 ore di registrazioni vocali da 53 lingue. Lo strumento, noto anche come modello linguistico, ha imparato a riconoscere caratteristiche specifiche del linguaggio sia a un livello più fine (pensare lettere o sillabe) sia a un livello più ampio, come una parola o una frase.
Il team ha applicato un’intelligenza artificiale con questo modello linguistico ai database di quattro istituzioni che includevano l’attività cerebrale di 169 volontari. In questi database, i partecipanti hanno ascoltato varie storie e frasi da, ad esempio, Il vecchio e il mare di Ernest Hemingway e Le avventure di Alice nel paese delle meraviglie di Lewis Carroll mentre i cervelli delle persone venivano scansionati utilizzando la magnetoencefalografia o l’elettroencefalografia.
Queste tecniche misurano la componente magnetica o elettrica dei segnali cerebrali. Quindi, con l’aiuto di un metodo computazionale che aiuta a tenere conto delle differenze fisiche tra i cervelli reali, il team ha cercato di decodificare ciò che i partecipanti avevano sentito utilizzando solo tre secondi di dati sull’attività cerebrale di ciascuna persona.
Il team ha incaricato l’IA di allineare i suoni del parlato dalle registrazioni della storia ai modelli di attività cerebrale che l’IA ha calcolato come corrispondenti a ciò che le persone stavano ascoltando. Ha quindi fatto previsioni su ciò che la persona avrebbe potuto sentire durante quel breve periodo, date più di 1.000 possibilità.
Usando la magnetoencefalografia, o MEG, la risposta corretta era corretta tra le prime 10 ipotesi dell’IA fino al 73% delle volte, hanno scoperto i ricercatori. Con l’elettroencefalografia, quel valore è sceso a non più del 30 percento. “Quella prestazione di MEG è molto buona”, dice Di Liberto, ma è meno ottimista sul suo uso pratico. “Cosa possiamo farci? Niente. Assolutamente niente.”
Il motivo, dice, è che MEG richiede una macchina ingombrante e costosa. Portare questa tecnologia nelle cliniche richiederà innovazioni scientifiche che rendano le macchine più economiche e facili da usare. È anche importante capire cosa significa veramente “decodificare” in questo studio, afferma Jonathan Brennan, linguista dell’Università del Michigan ad Ann Arbor.
La parola è spesso usata per descrivere il processo di decifrazione delle informazioni direttamente da una fonte, in questo caso il discorso dall’attività cerebrale. Ma l’IA ha potuto farlo solo perché è stato fornito un elenco finito di possibili risposte corrette per formulare le sue ipotesi.
“Con il linguaggio, questo non lo ridurrà se vogliamo ridimensionarlo all’uso pratico, perché il linguaggio è infinito”, afferma Brennan.
Inoltre, afferma Di Liberto, l’IA ha decodificato le informazioni dei partecipanti che ascoltano passivamente l’audio, che non è direttamente rilevante per i pazienti non verbali. Affinché diventi uno strumento di comunicazione significativo, gli scienziati dovranno imparare a decrittare dall’attività cerebrale ciò che questi pazienti intendono dire, comprese le espressioni di fame, disagio o un semplice “sì” o “no”.
Il nuovo studio è “decodifica della percezione del parlato, non della produzione”, concorda King. Sebbene la produzione del parlato sia l’obiettivo finale, per ora “siamo molto lontani”.