L’obiettivo di Google stavolta è davvero ambizioso: realizzare il più potente e veloce dei supercomputer quantistici destinati a risolvere le grandi sfide globali. Il colosso di Mountain View si è dato anche un tempo per raggiungere questo traguardo e soprattutto un nuovo laboratorio all’avanguardia, il Quantum AI Campus a Santa Barbara, in California.
Entro il 2029 i ricercatori del nuovo campus avranno la responsabilità di costruire un supercomputer quantistico grande quanto una stanza ed equipaggiato di un milione di qubit fisici.
Un risultato che va ben oltre gli attuali computer quantistici, che si fermano spesso a poche decine di qubit e necessitano dimensioni ridotte. La nuova macchina di Google sarà un “quantum error correction”, in grado di ridurre le inesattezze intrinseche nell’utilizzo della tecnologia quantistica. Un supercomputer con questa potenza di calcolo potrebbe dare vita a un nuovo tipo di computing così elaborato da poter dare un concreto aiuto nella progettazione di nuove cure mediche all’avanguardia, soluzioni sostenibili per combattere il cambiamento climatico e ancora contribuire allo sviluppo tecnologico in qualsiasi tipo di settore.
Google: un campus hi-tech per il supercomputer quantistico
Sviluppare i supercomputer quantistici del futuro dotati di milioni di qubit fisici richiede un laboratorio all’avanguardia e i migliori scienziati e ingegneri. Durante l’evento per gli sviluppatori del 2021, Google ha annunciato la creazione del Quantum AI Campus, un laboratorio di calcolo quantistico situato a Santa Barbara dove centinaia di ricercatori uniranno le forze per raggiungere l’obiettivo entro il 2029 e spingersi verso nuovi confini ottenendo la supremazia quantistica.
Uno dei principali compiti dei ricercatori sarà quello di portare Google a vincere la sfida dei computer quantistici, con concorrenti come IBM e Honeywell da battere, riuscendo a trasformare queste macchine in strumenti pratici da utilizzare. Per farlo, bisogna rendere più affidabili gli elementi fondamentali di elaborazione dei dati su cui questo tipo di computer si basano: i qubit, equivalente quantistico dei bit informatici. Il più grande problema dei qubit è che sono molto suscettibili ad essere influenzati da forze esterne, apportando così errori nei calcoli. Nei laboratori di Santa Barbara si cercherà quindi di perfezionare la tecnologia di correzione degli errori, così da rendere i computer quantistici più veloci e affidabili nell’elaborazione dei dati.
Supercomputer quantistici: perché sono così importanti
La natura e l’avanzamento tecnologico ci pongono davanti all’esigenza di affrontare problemi sempre più complessi per cui sono necessari computer con potenze di calcolo sempre più elevate. Questa esigenza trova la sua soluzione nel calcolo quantistico, che nonostante la rapida evoluzione negli ultimi anni non consente ancora di gestire in modo efficace tutte le tipologie di calcolo.
Uno dei maggiori limiti del calcolo quantistico è la correzione degli errori di elaborazione introdotte dall’intrinseca volatilità dei qubit, le unità fondamentali dei computer quantistici.
Generalmente, per creare un singolo qubit funzionante, che viene definito qubit logico, serviranno diversi qubit fisici. Secondo le ricerche di Google, per un singolo qubit logico che elimini gli errori serviranno circa 1000 qubit fisici. Questo significa che, per creare un supercomputer quantistico da 1000 qubit logici che sia in grado di minimizzare l’errore dovuto all’influenza delle forze esterne sui qubit stessi, sarà necessario costruire una macchina con almeno un milione di qubitfisici. Una vera e propria sfida, se si considera che gli attuali computer quantistici hanno appena poche dozzine di qubit fisici.
Google, non solo supercomputer quantistici
Nel futuro di Google, però, non ci sono solo i supercomputer quantistici. Lo sviluppo di questi importanti nuovi computer va di pari passo con i progressi sull’hardware di accelerazione IA del colosso di Mountain View. Durante la conferenza degli sviluppatori del 2021, Google ha rivelato di star lavorando a dei nuovi processori personalizzati chiamati unità di elaborazione del tensore (TPU) per una potenza di calcolo senza precedenti. Nemmeno un mese dopo, Google ha pubblicato uno studio in collaborazione coi ricercatori della Stanford University sulla rivista Nature, dimostrando come l’intelligenza artificiale sia stata in grado di accelerare la produzione di nuovi chip. Grazie alle capacità dell’IA di Google, la progettazione della configurazione dei nuovi processori ha richiesto appena alcune ore invece di mesi, con risultati che sono stati definiti pari o addirittura superiori a quelli ottenuti dagli ingegneri “umani”.
Questo risultato è stato possibile perché le prestazioni di un chip dipendono molto dalla disposizione fisica delle loro componenti e disegnare la planimetria dei circuiti è un compito complesso.
Riuscire ad automatizzare questo processo attraverso il machine learning non è stato certo semplice: i ricercatori hanno sviluppato una rete neurale che poi hanno allenato con la tecnica di machine learning chiamata reinforcement learning, cioè “apprendimento di rinforzo”.
In questo modo, l’IA ha potuto ottimizzare la pianificazione del chip valutando le eventuali combinazioni di performance, consumo energetico e dimensioni in funzione della disposizione delle componenti. In meno di sei ore l’algoritmo è riuscito a risolvere il complesso “puzzle”, disegnando un chip funzionante e scegliendo la configurazione con le migliori prestazioni, risparmiando migliaia di ore di lavoro “umano”. Con queste premesse e possibilità, Big G ora si concentra sulla sfida dei supercomputer quantistici e la data del 2029 come raggiungimento del risultato non sembra affatto impossibile per il colosso dell’hi-tech.