SUPERCOMPUTER

Google ha raggiunto la “quantum supremacy”. Sfida con Ibm

Il processore Sycamore a 53 qubit ha svolto in 3 minuti e 20 secondi un calcolo che avrebbe richiesto 10mila anni al superPc sviluppato da Big Blue. Che però ribatte: “Con più storage ci sarebbero bastati 2 giorni e mezzo”

Pubblicato il 25 Ott 2019

supercomputer

Google conferma di aver raggiunto la supremazia quantistica. Dopo le indiscrezioni trapelate lo scorso mese su un risultato rivoluzionario nel quantum computing ottenuto nel Quantum AI Lab di Big G in California, ora il colosso del digitale spiega, in uno studio apparso su Nature, di essere riuscito ad effettuare in 3 minuti e 20 secondi un calcolo estremamente complesso utilizzando il suo chip quantistico Sycamore a 53 qubit. Gli scienziati di Google sostengono che un supercomputer Ibm Summit – il più potente oggi al mondo – ci avrebbe messo 10.000 anni, ma Ibm non è affatto d’accordo: una configurazione diversa del supercomputer, con capacità di storage aggiuntiva, avrebbe permesso di risolvere l’operazione (scovare schemi ricorrenti in una serie casuale di numeri) al massimo in 2 giorni e mezzo. E con maggior precisione.

I quantum computer sono calcolatori che sfruttano le leggi della fisica e della meccanica quantistica. La loro unità fondamentale è il bit quantistico o qubit, legato allo stato in cui si trova una particella o un atomo e le cui peculiarità permettono di svolgere i calcoli in modo molto più veloce. Infatti, mentre nel metodo computazionale classico ogni bit è rappresentato da zero o uno (sistema binario), nel computing quantistico il qubit può essere 0-1 o zero e uno contemporaneamente. Questo è possibile grazie alla sovrapposizione degli stati quantistici, che abilita i calcoli in parallelo (anziché uno alla volta), moltiplicando esponenzialmente potenza e velocità anche per calcoli estremamente complessi.

Il “giallo” sull’esperimento di Sycamore

Lo scorso mese il Financial Times ha riportato (in base a un blog post di un ricercatore di Google successivamente rimosso) che Google aveva ottenuto la supremazia quantistica, svolgendo in 3 minuti un’elaborazione che ad Ibm Summit avrebbe richiesto 10.000 anni. L’esperimento sarebbe stato eseguito con un processore da 53 qubit con nome in codice Sycamore. Ma sulla notizia in quel momento era calato il no comment di Google. Nell’articolo apparso ora su Nature il laboratorio di ricerca di Big G conferma di essere riuscito a far interagire i quibit di Sycamore in uno stato quantistico e a campionare i numeri random un milione di volte in poco più di tre minuti.

La fattibilità quantistica

Un risultato che William D. Oliver del Massachussets institute of technology (MIT) ha paragonato al primo volo dei fratelli Wright e che il ceo di Google Sundar Pichai ha definito una pietra miliare al pari del primo razzo lanciato nello spazio. Ma, oltre a Ibm, che è diretta concorrente di Google nello sviluppo del computing quantistico, anche il colosso dei chip Intel frena dicendo che “la quantum practicality” è ben lontana: un conto sono gli esperimenti in laboratorio e un conto sono gli utilizzi reali.

“I computer quantistici non regneranno mai ‘supremi’ sui computer tradizionali – sostiene Dario Gil, director of research di Ibm – ma lavoreranno insieme, ognuno sfruttando le loro caratteristiche specifiche”. Anche per Torsten Siebert, direttore del programma di ricerca sul quantum computing della tedesca Fraunhofer Society, “il progresso probabilmente sarà raggiunto tramite combinazioni ibride.

La competizione commerciale tra Google e Ibm

Google resta convinta della portata del suo risultato. E del suo valore commerciale: “Speriamo che quando le persone cominceranno a usare questa tecnologia e a vedere la stabilità delle prestazioni e l’interfaccia cloud, si entusiasmeranno per quello che Google ha da offrire“, secondo le dichiarazioni riportate da Reuters di John Martinis, chief scientist for quantum hardware dell’azienda di Mountain View. Nel Quantum AI Lab Google ha creato anche un chip per computer quantistici da 72 qubit, chiamato Bristlecone.

Il colosso di Mountain View si mette a diretto confronto con Ibm, che ha inaugurato l’era dei computer quantistici nel 2001 creando all’Almaden Research Center un elaboratore quantistico a 7 qubit. A febbraio 2019 al Ces di Las Vegas Ibm ha annunciato un computer da 20 qubit, ma nei laboratori è arrivata a simulare il funzionamento del computer quantistico a 56 qubit, un livello considerato da supercomputer. A ottobre l’azienda inserirà nel suo arsenale di super-macchine quantistiche un computer da 53 qubit, portando a 14 il totale dei suoi quantum computer.

Al Ces Ibm ha anche presentato il Q System One, il primo sistema di elaborazione quantistica “integrato e universale” progettato sia per la ricerca scientifica che per l’uso commerciale e ha annunciato l’apertura del suo primo Q Quantum computation center a Poughkeepsie, New York, dove saranno ospitati alcuni dei più avanzati sistemi quantistici di Ibm basati su Ibm cloud. Questi sistemi saranno aperti ai membri di Ibm Q Network, il programma commerciale di quantum computing di Ibm.

Le sfide del calcolo quantistico

La capacità del quantum computing promette di potenziare enormemente le applicazioni di intelligenza artificiale permettendo di effettuare calcoli e tracciare modelli preclusi alle capacità di calcolo dei computer classici. Le applicazioni sono infinite, dalle previsioni sull’andamento dei mercati finanziari all’analisi dei cambiamenti climatici e i loro impatti, dalla mappatura genetica per la medicina personalizzata all’addestramento delle reti neurali.

Alcuni utilizzi, soprattutto nel mondo della ricerca, già esistono, ma la fattibilità di vasta portata è lontana perché lo stato subatomico su cui si basano le macchine quantistiche pongono problemi ancora da superare. La sfida principale è mantenere la qualità dei qubit, potenti ma delicati: perdono rapidamente le loro speciali qualità quantiche (in circa 100 microsecondi) a causa di fattori quali le vibrazioni, le onde elettromagnetiche e le fluttuazioni della temperatura (spesso è necessario creare un ambiente allo zero assoluto, con elevati costi). Le particelle subatomiche sono volatili e fragili, proprio perché cambiano stato, e potrebbero causare la perdita di dati e informazioni utili al processo di calcolo: per questo sarà fondamentale ridurre il tasso di errore, che ancora oggi, in molte operazioni quantistiche, può essere alto.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati