SUPERCOMPUTER

Google ha raggiunto la “quantum supremacy”. Sfida con Ibm

Il processore Sycamore a 53 qubit ha svolto in 3 minuti e 20 secondi un calcolo che avrebbe richiesto 10mila anni al superPc sviluppato da Big Blue. Che però ribatte: “Con più storage ci sarebbero bastati 2 giorni e mezzo”

Pubblicato il 25 Ott 2019

supercomputer

Google conferma di aver raggiunto la supremazia quantistica. Dopo le indiscrezioni trapelate lo scorso mese su un risultato rivoluzionario nel quantum computing ottenuto nel Quantum AI Lab di Big G in California, ora il colosso del digitale spiega, in uno studio apparso su Nature, di essere riuscito ad effettuare in 3 minuti e 20 secondi un calcolo estremamente complesso utilizzando il suo chip quantistico Sycamore a 53 qubit. Gli scienziati di Google sostengono che un supercomputer Ibm Summit – il più potente oggi al mondo – ci avrebbe messo 10.000 anni, ma Ibm non è affatto d’accordo: una configurazione diversa del supercomputer, con capacità di storage aggiuntiva, avrebbe permesso di risolvere l’operazione (scovare schemi ricorrenti in una serie casuale di numeri) al massimo in 2 giorni e mezzo. E con maggior precisione.

I quantum computer sono calcolatori che sfruttano le leggi della fisica e della meccanica quantistica. La loro unità fondamentale è il bit quantistico o qubit, legato allo stato in cui si trova una particella o un atomo e le cui peculiarità permettono di svolgere i calcoli in modo molto più veloce. Infatti, mentre nel metodo computazionale classico ogni bit è rappresentato da zero o uno (sistema binario), nel computing quantistico il qubit può essere 0-1 o zero e uno contemporaneamente. Questo è possibile grazie alla sovrapposizione degli stati quantistici, che abilita i calcoli in parallelo (anziché uno alla volta), moltiplicando esponenzialmente potenza e velocità anche per calcoli estremamente complessi.

Il “giallo” sull’esperimento di Sycamore

Lo scorso mese il Financial Times ha riportato (in base a un blog post di un ricercatore di Google successivamente rimosso) che Google aveva ottenuto la supremazia quantistica, svolgendo in 3 minuti un’elaborazione che ad Ibm Summit avrebbe richiesto 10.000 anni. L’esperimento sarebbe stato eseguito con un processore da 53 qubit con nome in codice Sycamore. Ma sulla notizia in quel momento era calato il no comment di Google. Nell’articolo apparso ora su Nature il laboratorio di ricerca di Big G conferma di essere riuscito a far interagire i quibit di Sycamore in uno stato quantistico e a campionare i numeri random un milione di volte in poco più di tre minuti.

La fattibilità quantistica

Un risultato che William D. Oliver del Massachussets institute of technology (MIT) ha paragonato al primo volo dei fratelli Wright e che il ceo di Google Sundar Pichai ha definito una pietra miliare al pari del primo razzo lanciato nello spazio. Ma, oltre a Ibm, che è diretta concorrente di Google nello sviluppo del computing quantistico, anche il colosso dei chip Intel frena dicendo che “la quantum practicality” è ben lontana: un conto sono gli esperimenti in laboratorio e un conto sono gli utilizzi reali.

“I computer quantistici non regneranno mai ‘supremi’ sui computer tradizionali – sostiene Dario Gil, director of research di Ibm – ma lavoreranno insieme, ognuno sfruttando le loro caratteristiche specifiche”. Anche per Torsten Siebert, direttore del programma di ricerca sul quantum computing della tedesca Fraunhofer Society, “il progresso probabilmente sarà raggiunto tramite combinazioni ibride.

La competizione commerciale tra Google e Ibm

Google resta convinta della portata del suo risultato. E del suo valore commerciale: “Speriamo che quando le persone cominceranno a usare questa tecnologia e a vedere la stabilità delle prestazioni e l’interfaccia cloud, si entusiasmeranno per quello che Google ha da offrire“, secondo le dichiarazioni riportate da Reuters di John Martinis, chief scientist for quantum hardware dell’azienda di Mountain View. Nel Quantum AI Lab Google ha creato anche un chip per computer quantistici da 72 qubit, chiamato Bristlecone.

Il colosso di Mountain View si mette a diretto confronto con Ibm, che ha inaugurato l’era dei computer quantistici nel 2001 creando all’Almaden Research Center un elaboratore quantistico a 7 qubit. A febbraio 2019 al Ces di Las Vegas Ibm ha annunciato un computer da 20 qubit, ma nei laboratori è arrivata a simulare il funzionamento del computer quantistico a 56 qubit, un livello considerato da supercomputer. A ottobre l’azienda inserirà nel suo arsenale di super-macchine quantistiche un computer da 53 qubit, portando a 14 il totale dei suoi quantum computer.

Al Ces Ibm ha anche presentato il Q System One, il primo sistema di elaborazione quantistica “integrato e universale” progettato sia per la ricerca scientifica che per l’uso commerciale e ha annunciato l’apertura del suo primo Q Quantum computation center a Poughkeepsie, New York, dove saranno ospitati alcuni dei più avanzati sistemi quantistici di Ibm basati su Ibm cloud. Questi sistemi saranno aperti ai membri di Ibm Q Network, il programma commerciale di quantum computing di Ibm.

Le sfide del calcolo quantistico

La capacità del quantum computing promette di potenziare enormemente le applicazioni di intelligenza artificiale permettendo di effettuare calcoli e tracciare modelli preclusi alle capacità di calcolo dei computer classici. Le applicazioni sono infinite, dalle previsioni sull’andamento dei mercati finanziari all’analisi dei cambiamenti climatici e i loro impatti, dalla mappatura genetica per la medicina personalizzata all’addestramento delle reti neurali.

Alcuni utilizzi, soprattutto nel mondo della ricerca, già esistono, ma la fattibilità di vasta portata è lontana perché lo stato subatomico su cui si basano le macchine quantistiche pongono problemi ancora da superare. La sfida principale è mantenere la qualità dei qubit, potenti ma delicati: perdono rapidamente le loro speciali qualità quantiche (in circa 100 microsecondi) a causa di fattori quali le vibrazioni, le onde elettromagnetiche e le fluttuazioni della temperatura (spesso è necessario creare un ambiente allo zero assoluto, con elevati costi). Le particelle subatomiche sono volatili e fragili, proprio perché cambiano stato, e potrebbero causare la perdita di dati e informazioni utili al processo di calcolo: per questo sarà fondamentale ridurre il tasso di errore, che ancora oggi, in molte operazioni quantistiche, può essere alto.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati