Con ogni giro che fai attraverso un mazzo di flashcard di parole del vocabolario, le loro definizioni arrivano più rapidamente, più facilmente. Questo processo di apprendimento e memoria di nuove informazioni rafforza le connessioni importanti nel cervello. Ricordare più facilmente quelle nuove parole e definizioni con la pratica è la prova che quelle connessioni neurali, chiamate sinapsi, possono diventare più forti o più deboli nel tempo, una caratteristica nota come plasticità sinaptica.
Potenziare la memoria del cervello
Quantificare la dinamica delle singole sinapsi può essere una sfida per i neuroscienziati, ma le recenti innovazioni computazionali del Salk Institute potrebbero cambiare la situazione e rivelare nuove intuizioni sul cervello lungo il percorso.
Per capire come il cervello apprende e conserva le informazioni, gli scienziati cercano di quantificare quanto più forte è diventata una sinapsi attraverso l’apprendimento e quanto più forte può diventare. La forza sinaptica può essere misurata osservando le caratteristiche fisiche delle sinapsi, ma è molto più difficile misurare la precisione della plasticità (se le sinapsi si indeboliscono o si rafforzano in modo consistente) e la quantità di informazioni che una sinapsi può immagazzinare.
Gli scienziati del Salk hanno creato un nuovo metodo per esplorare la forza sinaptica, la precisione della plasticità e la quantità di informazioni immagazzinate. Quantificare queste tre caratteristiche sinaptiche può migliorare la comprensione scientifica di come gli esseri umani apprendono e ricordano, nonché di come tali processi si evolvono nel tempo o si deteriorano con l’età o la malattia. I risultati sono stati pubblicati su Neural Computation.
“Stiamo migliorando nell’identificare esattamente dove e come i singoli neuroni sono collegati tra loro, ma abbiamo ancora molto da imparare sulle dinamiche di tali connessioni”, afferma il professor Terrence Sejnowski, autore senior dello studio e titolare del progetto. Cattedra Francis Crick a Salk.
Il team di Salk ha applicato concetti della teoria dell’informazione per analizzare le coppie di sinapsi dell’ippocampo di un ratto – una parte del cervello coinvolta nell’apprendimento e nella memoria – per verificarne forza, plasticità e precisione.
La teoria dell’informazione è un modo matematico sofisticato di comprendere l’elaborazione dell’informazione come un input che viaggia attraverso un canale rumoroso e viene ricostruito dall’altra parte.
Fondamentalmente, a differenza dei metodi utilizzati in passato, la teoria dell’informazione tiene conto della rumorosità dei numerosi segnali e cellule del cervello, oltre a offrire un’unità discreta di informazione – un bit – per misurare la quantità di informazioni immagazzinate in una sinapsi.
“Abbiamo diviso le sinapsi in base alla forza, di cui c’erano 24 possibili categorie, quindi abbiamo confrontato speciali coppie di sinapsi per determinare con quanta precisione viene modulata la forza di ciascuna sinapsi”, afferma Mohammad Samavat, primo autore dello studio e ricercatore post-dottorato nel laboratorio di Sejnowski.
“Siamo stati entusiasti di scoprire che le coppie avevano dimensioni delle spine dendritiche e forza sinaptica molto simili, il che significa che il cervello è altamente preciso quando rende le sinapsi più deboli o più forti nel tempo.”
Oltre a notare le somiglianze nella forza delle sinapsi all’interno di queste coppie, che si traducono in un alto livello di precisione della plasticità, il team ha anche misurato la quantità di informazioni contenute in ciascuna delle 24 categorie di forza. Nonostante le differenze nella dimensione di ciascuna spina dendritica, ciascuna delle 24 categorie di forza sinaptica conteneva una quantità simile di informazioni (tra 4,1 e 4,6 bit).
Rispetto alle tecniche più vecchie, questo nuovo approccio che utilizza la teoria dell’informazione è (1) più approfondito, poiché tiene conto di una quantità di informazioni 10 volte maggiore nel cervello immagazzinata rispetto a quanto precedentemente ipotizzato, e (2) scalabile, il che significa che può essere applicato a set di dati diversi e di grandi dimensioni per raccogliere informazioni su altre sinapsi.
“Questa tecnica sarà di enorme aiuto per i neuroscienziati”, afferma Kristen Harris, professoressa dell’Università del Texas ad Austin e autrice dello studio. “Avere questo sguardo dettagliato sulla forza e sulla plasticità sinaptica potrebbe davvero dare impulso alla ricerca sull’apprendimento e sulla memoria, e possiamo usarlo per esplorare questi processi in tutte le diverse parti del cervello umano, del cervello animale, del cervello giovane e del cervello vecchio.”
Sejnowski afferma che il lavoro futuro di progetti come la BRAIN Initiative del National Institutes of Health, che ha creato un atlante delle cellule cerebrali umane nell’ottobre 2023, trarrà beneficio da questo nuovo strumento.
Oltre agli scienziati che catalogano i tipi e i comportamenti delle cellule cerebrali, la tecnica è interessante per coloro che studiano quando la memorizzazione delle informazioni va male, come nel morbo di Alzheimer.
Negli anni a venire, i ricercatori di tutto il mondo potrebbero utilizzare questa tecnica per fare scoperte entusiasmanti sulla capacità del cervello umano di apprendere nuove competenze, ricordare azioni quotidiane e archiviare informazioni a breve e lungo termine.
Le sinapsi vicine modellano l’apprendimento e la memoria
Un ricercatore dell’Università di Basilea, in collaborazione con un collega austriaco, ha sviluppato un nuovo modello che fornisce una visione olistica su come il nostro cervello riesce ad apprendere velocemente e a formare ricordi stabili e duraturi.
Il loro studio fa luce sul ruolo cruciale delle interazioni tra i siti di contatto vicini delle cellule nervose per la plasticità cerebrale, ovvero la capacità del cervello di adattarsi a nuove esperienze.
Nel 1949, lo psicologo canadese Donald O. Hebb descrisse che le connessioni tra i neuroni diventano più forti quando i neuroni sono attivi contemporaneamente e che le connessioni rafforzate facilitano la trasmissione del segnale. La capacità del nostro cervello di modificare le connessioni tra i neuroni è fondamentale per l’apprendimento e la memoria .
“Da tempo si presumeva che questi adattamenti avvenissero per lo più uno a uno in sinapsi specifiche, i punti di contatto tra due neuroni”, spiega il dott. Everton Agnes del Biozentrum dell’Università di Basilea. “È interessante notare che le sinapsi che subiscono cambiamenti influenzano anche più sinapsi vicine.”
Poiché queste complesse interazioni sinaptiche sono difficili da studiare sperimentalmente, Agnes e il suo collega Prof. Tim Vogels dell’Istituto di Scienza e Tecnologia Austria hanno costruito un modello teorico per districare questo fenomeno, noto anche come co-dipendenza. Il loro lavoro è stato pubblicato su Nature Neuroscience.
Lo sappiamo tutti fin dai tempi della scuola: quando si imparano ripetutamente nuovi vocaboli, si riescono a ricordarli meglio. Questo perché i neuroni coinvolti nell’elaborazione di queste informazioni formano connessioni più forti tra loro nel tempo.
Questi cambiamenti delle connessioni sinaptiche – sia il rafforzamento che l’indebolimento – sono noti come plasticità sinaptica . In questo modo, il cervello aggiorna continuamente la sua rete neuronale per immagazzinare nuove informazioni o rimuovere informazioni irrilevanti, la base per l’apprendimento e la memoria.
I neuroni sono per lo più collegati da sinapsi eccitatorie e inibitorie. Mentre le sinapsi eccitatorie trasmettono un segnale, quelle inibitorie riducono la trasmissione del segnale.
“I diversi tipi di sinapsi non funzionano solo in modo indipendente, ma le sinapsi vicine si influenzano a vicenda, modellando così la forza e la stabilità delle connessioni neuronali”, spiega Agnes.
“Con il nostro modello, potremmo rivelare, ad esempio, che le interazioni tra sinapsi eccitatorie vicine determinano la forza delle connessioni, legate al modo in cui vengono codificati i ricordi.”
Le sinapsi complementari e inibitorie rappresentano la stabilità duratura delle modificazioni sinaptiche eccitatorie, fornendo il meccanismo necessario per l’apprendimento one-shot, quando i ricordi vengono appresi dopo una singola esposizione.
L’interazione precisa tra le sinapsi vicine è fondamentale per un rapido apprendimento e per la formazione di ricordi duraturi.
“Integrando un ampio insieme di regole riguardanti la co-dipendenza sinaptica nel nostro modello di rete, forniamo una visione più olistica sui meccanismi alla base della plasticità cerebrale”, sottolinea Agnes. Lo studio evidenzia l’importanza delle interazioni di vicinato e fornisce nuove informazioni sulla dinamica e sull’ottimizzazione delle reti neurali nel cervello su microscala.