Il calcolo quantistico della computazione quantica (quantum computing) promette da anni di rivoluzionare l’informatica, ma fino a oggi si è scontrato con un problema fondamentale: il rumore. I computer quantistici, infatti, sono soggetti a errori dovuti alla loro estrema sensibilità, al punto che in molti casi si sono dimostrati meno efficienti dei computer tradizionali.

Tuttavia, un team di ricercatori guidati da Daniel Lidar, nonché professore alla USC Viterbi School of Engineering e figura di spicco nel campo della correzione degli errori quantistici, ha appena segnato un punto di svolta e nello studio pubblicato su Physical Review X, Lidar e colleghi (tra cui ricercatori anche della Johns Hopkins University) hanno dimostrato un’accelerazione esponenziale incondizionata usando due computer quantistici IBM da 127 qubit.
Cosa significa “accelerazione esponenziale incondizionata” del quantum computing?
Nel mondo del quantum computing, si parla di accelerazione quando un algoritmo quantistico risolve un problema più velocemente rispetto al suo equivalente classico; finora, però, si era riusciti a ottenere solo accelerazioni polinomiali e miglioramenti sì importanti, ma relativamente modesti.

Un’accelerazione esponenziale, invece, rappresenta un vero salto quantico: man mano che cresce la complessità del problema, il computer quantistico accelera sempre di più rispetto a quello classico. E nel caso di questa ricerca, l’accelerazione è incondizionata, cioè non si basa su ipotesi teoriche o su confronti favorevoli: è un vantaggio reale, misurato e dimostrabile.
Il cuore della dimostrazione: il problema di Simon
I ricercatori hanno testato il loro approccio risolvendo una variazione del cosiddetto “problema di Simon”, un classico esercizio di teoria quantistica che prevede di trovare una struttura nascosta in una funzione matematica. Considerato il precursore dell’algoritmo di Shor (quello capace di spezzare i codici RSA), questo problema è famoso proprio perché i computer quantistici possono risolverlo esponenzialmente più in fretta di quelli classici.
Come è stato possibile?
Il merito non va solo all’hardware IBM sul quantum computing, ma soprattutto a una serie di ottimizzazioni mirate:
- Riduzione dei dati di input: limitando la complessità del problema, si sono ridotte le operazioni necessarie e quindi il margine di errore.
- Transpilazione avanzata: ovvero la traduzione e compressione intelligente dell’algoritmo per adattarlo al meglio all’hardware.
- Disaccoppiamento dinamico: una tecnica che “protegge” i qubit dal rumore ambientale, mantenendoli stabili e coerenti più a lungo.
- Mitigazione degli errori di misurazione: per correggere i piccoli difetti residui nella fase finale di lettura.
Secondo Phattharaporn Singkanipa, dottorando alla USC e primo autore dello studio: “La chiave è stata spremere ogni goccia di prestazione dall’hardware: circuiti più brevi, sequenze di impulsi più intelligenti e mitigazione statistica degli errori.“

E adesso?
È importante chiarire che non siamo ancora arrivati all’uso quotidiano di computer quantistici per problemi pratici. Come sottolinea Lidar stesso, questo risultato è più che altro una vittoria simbolica e teorica: “Questo non risolve ancora problemi reali, ma dimostra che l’accelerazione esponenziale promessa esiste davvero – ed è già qui.”
Il prossimo passo sarà applicare questa potenza computazionale a problemi non costruiti ad hoc, senza il supporto di “oracoli” (cioè sistemi che conoscono già la risposta). Ma ora il campo è aperto: il quantum computing ha ufficialmente superato il punto di non ritorno.