Anche l’Italia, finalmente, ha il suo computer quantistico. Si chiama Seeqc System Red, ed è stato sviluppato da Seeqc, azienda statunitense con sedi a New York, Londra e Napoli, con il supporto dell’Università Federico II di Napoli. Il dispositivo si trova, per l’appunto, a Napoli, ed è il primo computer quantistico italiano full-stack, ossia dotato di tutti i componenti che gli permettono di far girare algoritmi e applicazioni – hardware, software, firmware e portale cloud. È stato appena presentato alla stampa ed è già operativo: abbiamo avuto occasione di visitarlo, di farcelo descrivere da John Levy, ad dell’azienda, che ci ha illustrato le sue caratteristiche e la roadmap per il futuro (che comprende, tra le altre cose, la realizzazione di un quantum data-center a Napoli), e infine di vederlo in azione, alle prese con due algoritmi di test e, cosa ancora più importante, con un algoritmo reale. “Questo traguardo – ha detto Levy – rappresenta qualcosa in più di una singola pietra miliare nel computing quantistico. Come primo computer quantistico italiano, Seeqc Red rappresenta un evento importante nella storia dell’innovazione in Italia e costituisce un progresso significativo nella nostra missione nell’intero settore del computing quantistico. Il passo successivo è portare quanto fatto oggi in ambito commerciale, costruendo qui a Napoli un quantum data-center e centro di test. Siamo pronti a collaborare con la pubblica amministrazione locale e centrale, i fondi privati di investimento e i nostri partner industriali per contribuire a realizzare questa visione”.
Un piccolo riepilogo
A differenza dei computer classici, che usano i bit – ossia valori di zero o di uno – per memorizzare e manipolare le informazioni, i computer quantistici usano i qubit, che invece possono assumere i valori di zero, uno e diverse loro combinazioni, in virtù del cosiddetto “principio di sovrapposizione”, una delle leggi fondamentali della meccanica quantistica. Un processore in grado di lavorare in sicurezza e velocità con i qubit non è soltanto più veloce o più potente rispetto a un processore tradizionale; è anche in grado, almeno in linea teorica, di svolgere operazioni che un processore tradizionale non potrebbe mai svolgere, almeno non in un tempo ragionevole. È il cosiddetto principio della supremazia quantistica: nel 2019 Google è affermata di essere riuscita a raggiungerla con il suo Sycamore, che ha risolto un problema matematico molto complesso – che il più potente computer al mondo, il Summit di Ibm, riuscirebbe ad affrontare in circa 10mila anni – in appena 3 minuti e 20 secondi.
Niente male: ma va sottolineato che, al momento, sfide come questa sono soltanto artefatti matematici che hanno poco a che fare con le applicazioni reali della computazione quantistica: “Il risultato di Google – ci dice ancora Levy – è certamente corretto e importante. Ma non è così utile. Ci conferma che i computer quantistici sono più veloci di quelli tradizionali, ma a mio avviso non è questa la loro qualità più interessante. Le qualità più interessanti sono altre. Tempo fa abbiamo parlato con un gruppo di ricerca che lavora su modelli climatici avanzati: ci hanno detto che la parte più importante di un modello climatico è la modellizzazione delle nuvole. E al momento non abbiamo modelli per farlo. Non sappiamo farlo. Perché la natura è fatta di entità quantistiche, e non sempre si può simularla con oggetti digitali [cioè i computer tradizionali, nda]. I computer quantistici sono così interessanti perché funzionano proprio come funziona la natura a livello microscopico, e costituiscono quindi l’approccio più ‘naturale’ per la risoluzione di problemi fondamentali. Oltre ai già citati modelli climatici, penso per esempio al design delle proteine, fondamentale per la scoperta di nuovi farmaci, o di batterie di nuova generazione, o alla modellizzazione della fotosintesi. Tutte cose che potrebbero cambiare drasticamente il nostro futuro e il nostro quotidiano”.
Una nuova prospettiva
Seeqc, naturalmente, non è l’unica azienda al mondo a sviluppare computer quantistici: oltre alla già citata Google, se ne stanno occupando anche Ibm, Amazon e molti altri colossi di tutto il mondo. Tuttavia, l’approccio dell’azienda americana è diverso, perché punta alla realizzazione di sistemi quantistici basati sui cosiddetti Sfq (Single-Flux Quantum), chip di nuova generazione che dovrebbero consentire di mettere a punto dispositivi completamente digitali, superando l’attuale tecnologia che prevede il controllo e la lettura analogica dei qubit. Al di là dei dettagli tecnici (per forza di cose molto complessi), si tratta di un approccio che, secondo i progettisti, riuscirebbe a risolvere il problema della scalabilità dei dispositivi e a ottimizzarne l’efficienza energetica, migliorandone contemporaneamente l’affidabilità (soprattutto in termini di correzione degli errori, uno degli aspetti più critici della computazione quantistica) e la velocità (o, più precisamente, la latenza).
“La parte più critica della scalabilità e dell’efficienza energetica dei computer quantistici – dice Levy – dipende dal fatto che i qubit sono estremamente delicati, e quindi vanno protetti adeguatamente da tutte le interferenze del mondo esterno. Per farlo, bisogna mantenerli a temperature bassissime, pochi millikelvin sopra lo zero assoluto, il che richiede molta energia e molti accorgimenti. L’approccio analogico, tra l’altro, prevede l’utilizzo di molti cavi e di molti rimbalzi e amplificazioni dei segnali, il che rende i sistemi molto poco scalabili: all’aumentare del numero di qubit la complessità del dispositivo aumenta di conseguenza”. Secondo alcune stime, mantenere in funzione un computer quantistico “analogico” con un milione di qubit richiederebbe, al momento, una potenza di circa 13 megawatt, ossia circa 700 milioni di dollari.
Leggi tutto su www.wired.it
di Sandro Iannaccone www.wired.it 2023-04-29 05:00:00 ,