Un gruppo di esperti dell’UC San Francisco ha sviluppato con successo una “neuroprotesi del linguaggio” che ha permesso a un uomo con grave paralisi di comunicare utilizzando frasi, grazie alla traduzione dei segnali dal suo cervello al tratto vocale direttamente in parole che compaiono come testo su uno schermo.
Il risultato, che è stato sviluppato in collaborazione con il primo partecipante a uno studio di ricerca clinica, si basa su oltre un decennio di sforzi del neurochirurgo UCSF Edward Chang, MD, per sviluppare una neuroprotesi del linguaggio che consenta alle persone con paralisi di comunicare anche se non sono in grado parlare da soli.
Lo studio è stato pubblicato sul New England Journal of Medicine.
Neuroprotesi del linguaggio: ecco come funziona
“Per quanto ne sappiamo, questa è la prima dimostrazione di successo della decodifica diretta di parole complete dall’attività cerebrale di qualcuno che è paralizzato e non può parlare“, ha spiegato Chang. Jeanne Robertson e autore senior dello studio, ha aggiunto: “Mostra una forte promessa di ripristinare la comunicazione attingendo al meccanismo del linguaggio naturale del cervello”.
Ogni anno, migliaia di persone perdono la capacità di comunicare a causa di ictus, incidenti o malattie. Con un ulteriore sviluppo, l’approccio descritto in questo studio potrebbe un giorno consentire a queste persone di comunicare pienamente grazie ad una neuroprotesi del linguaggio.
Nelle ricerche precedenti, il lavoro nel campo della neuroprotesi della comunicazione si è concentrato sul ripristino della comunicazione attraverso approcci basati sull’ortografia per digitare le lettere una per una nel testo. Lo studio di Chang differisce da questi sforzi in modo critico: i suoi collaboratori stanno traducendo segnali destinati a controllare i muscoli del sistema vocale per pronunciare parole, piuttosto che segnali per muovere il braccio o la mano per consentire la digitazione. Chang ha affermato che questo approccio attinge agli aspetti naturali e fluidi del discorso e promette una comunicazione più rapida e organica.
“Con la voce, normalmente comunichiamo informazioni a una velocità molto elevata, fino a 150 o 200 parole al minuto“, ha affermato, osservando che gli approcci basati sull’ortografia che utilizzano la digitazione, la scrittura e il controllo di un cursore sono considerevolmente più lenti e laboriosi. “Andare dritti alle parole, come stiamo facendo qui, ha grandi vantaggi perché è più vicino a come parliamo normalmente”.
Negli ultimi dieci anni, i progressi di Chang sono stati facilitati dai pazienti del Centro per l’epilessia dell’UCSF che si stavano sottoponendo ad un intervento di neurochirurgia per individuare le origini delle loro crisi, utilizzando array di elettrodi posizionati sulla superficie del cervello. Questi soggetti, tutti con un linguaggio normale, si sono offerti volontari per far analizzare le loro registrazioni cerebrali per l’attività correlata al linguaggio. I primi successi con questi pazienti volontari hanno spianato la strada all’attuale studio su persone con paralisi e allo sviluppo di una neuroprotesi.
In precedenza, Chang e colleghi dell’UCSF Weill Institute for Neurosciences hanno mappato i modelli di attività corticale associati ai movimenti del tratto vocale che producono ciascuna consonante e vocale. Per tradurre questi risultati in riconoscimento vocale di parole complete, David Moses, Ph.D., un ingegnere post-dottorato nel laboratorio Chang e autore principale del nuovo studio, ha sviluppato nuovi metodi per la decodifica in tempo reale di quei modelli, oltre a incorporare modelli linguistici statistici per migliorare la precisione.
Ma il loro successo nella decodifica del discorso nei partecipanti che erano in grado di parlare non garantiva che la tecnologia avrebbe funzionato in una persona il cui tratto vocale è paralizzato. “I nostri modelli avevano bisogno di imparare la mappatura tra modelli complessi di attività cerebrale e discorso previsto”, ha detto Moses. “Ciò rappresenta una grande sfida quando il partecipante non può parlare”.
Inoltre, il gruppo di ricerca non sapeva se i segnali cerebrali che controllano il tratto vocale sarebbero rimasti ancora intatti per le persone che non sono state in grado di muovere i muscoli vocali per molti anni. “Il modo migliore per scoprire se poteva funzionare era provarlo“, ha detto Moses.
Per studiare il potenziale di questa tecnologia nei pazienti con paralisi, Chang ha collaborato con il collega Karunesh Ganguly, MD, Ph.D., professore associato di neurologia, per lanciare uno studio noto come “BRAVO” (Brain-Computer Interface Restoration of Arm and Voce). Il primo partecipante al processo è stato un uomo sulla trentina che ha subito un devastante ictus cerebrale più di 15 anni fa che ha gravemente danneggiato la connessione tra il suo cervello, il tratto vocale e gli arti. Dal suo infortunio, ha avuto movimenti della testa, del collo e degli arti estremamente limitati e comunica usando un puntatore attaccato a un berretto da baseball per colpire le lettere su uno schermo.
Il partecipante, che ha chiesto di essere indicato come BRAVO1, ha lavorato con i ricercatori per creare un vocabolario di 50 parole che il team di Chang potesse riconoscere dall’attività cerebrale utilizzando algoritmi informatici avanzati. Il vocabolario, che include parole come “acqua“, “famiglia” e “buono”, è stato sufficiente per creare centinaia di frasi che esprimono concetti applicabili alla vita quotidiana di BRAVO1.
Per lo studio, Chang ha impiantato chirurgicamente una serie di elettrodi ad alta densità sulla corteccia motoria del linguaggio di BRAVO1. Dopo il completo recupero del partecipante, il suo team ha registrato 22 ore di attività neurale in questa regione del cervello in 48 sessioni e diversi mesi. In ogni sessione, BRAVO1 ha tentato di ripetere ognuna delle 50 parole del vocabolario molte volte mentre gli elettrodi registravano i segnali del cervello dalla sua corteccia vocale.
Per tradurre i modelli dell’attività neurale registrata in parole specifiche, i due co-autori di Moses, Sean Metzger e Jessie Liu, entrambi studenti laureati in bioingegneria presso il Chang Lab, hanno utilizzato modelli di rete neurale personalizzati, che sono forme di intelligenza artificiale. Quando il partecipante ha tentato di parlare, queste reti hanno distinto modelli sottili nell’attività cerebrale per rilevare i tentativi di parola e identificare quali parole stava cercando di dire.
Per testare il loro approccio, il team ha prima presentato a BRAVO1 brevi frasi costruite con le 50 parole del vocabolario e gli ha chiesto di provare a ripeterle più volte. Mentre faceva i suoi tentativi, le parole venivano decodificate dalla sua attività cerebrale, una per una, su uno schermo.
Quindi il team è passato a chiedergli domande come “Come stai oggi?” e “Vuoi un po’ d’acqua?” Come prima, il tentativo di discorso di BRAVO1 è apparso sullo schermo. “Sono molto bravo” e “No, non ho sete”.
Chang e Moses hanno scoperto che il sistema era in grado di decodificare le parole dall’attività cerebrale a una velocità fino a 18 parole al minuto con una precisione fino al 93% (mediana del 75%). A contribuire al successo è stato un modello linguistico applicato da Moses che ha implementato una funzione di “correzione automatica“, simile a quella utilizzata dai software di sms e riconoscimento vocale dei consumatori.
Mosè ha caratterizzato i primi risultati del processo come una prova di principio. “Siamo stati entusiasti di vedere la decodifica accurata di una varietà di frasi significative”, ha detto. “Abbiamo dimostrato che è effettivamente possibile facilitare la comunicazione in questo modo e che ha il potenziale per l’uso in contesti di conversazione”.
Guardando al futuro, Chang e Moses hanno detto che amplieranno lo studio per includere più partecipanti affetti da grave paralisi e deficit di comunicazione. Il team sta attualmente lavorando per aumentare il numero di parole nel vocabolario disponibile, oltre a migliorare la velocità del discorso.
Entrambi hanno affermato che mentre lo studio si è concentrato su un singolo partecipante e su un vocabolario limitato, tali limitazioni non diminuiscono il risultato. “Questa è un’importante pietra miliare tecnologica per una persona che non può comunicare in modo naturale“, ha detto Moses, “e dimostra il potenziale di questo approccio per dare voce alle persone con grave paralisi e perdita del linguaggio”.