login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

Supercomputer, il futuro è nel GPU computing

Sfruttando la potenza di calcolo degli acceleratori grafici si è in grado di compiere migliaia di miliardi di operazioni al secondo

GPU computing

Il loro scopo è, a grandi linee, il medesimo: macinare informazioni e istruzioni per "trasformare" i dati in ingresso in un "prodotto" completamente nuovo (o quasi). A divergere, e in maniera anche piuttosto marcata, è il modus operandi per raggiungere gli scopi prefissi: pur nella loro similarità CPU e GPU non potevano e non possono essere più differenti. L'unità centrale di calcolo (CPU), infatti, per portare a termine i compiti assegnatigli dai programmi in esecuzione, adotta tattiche diverse da quelle messe in atto dall'unità di calcolo grafico (GPU), influendo così anche sulla tecnologia costruttiva e sull'organizzazione interna di transistor e chip logici.

Differenze tra CPU e GPU

 

Differenze tra processore e acceleratore grafico

 

La distanza che separa i processori dalle GPU può essere spiegata partendo dalle differenti modalità di lavoro messe in atto dalle due componenti hardware. La CPU, infatti, esegue le istruzioni in arrivo dai programmi in maniera sequenziale: che abbia uno, due, quattro oppure otto core, il processore completerà l'algoritmo in esecuzione prima di passare al successivo e così via. La GPU, invece, è dotata di migliaia di core ed esegue gli algoritmi in parallelo, cioè contemporaneamente: ogni chip è dedicato all'esecuzione di una singola istruzione, così da poter effettuare il rendering delle immagini in un brevissimo lasso di tempo.

Potenza esplosiva

Capire i motivi che hanno portato a questa scelta strategica non è poi così complesso. Le schede grafiche, infatti, sono chiamate a ricomporre immagini costituite da decine di migliaia (in alcuni casi centinaia di migliaia se non milioni) di poligoni: per evitare problemi legati a lag o effetto scia, gli sviluppatori e i produttori di dispositivi hardware hanno ideato e realizzato degli acceleratori grafici in grado di elaborare milioni di informazioni ogni secondo.

 

Rack di schede video in parallelo

 

In termini di forza bruta, dunque, le GPU hanno un potenziale maggiore rispetto alle CPU: capaci di eseguire migliaia di miliardi di operazioni con virgola mobile al secondo (FLOPS utilizzando la terminologia tecnica), sono utilizzate all'interno di alcuni dei migliori supercomputer oggi attivi. Le schede grafiche, infatti, garantiscono prestazioni migliori delle schede madri, a parità di consumo energetico, e sono maggiormente indicate per l'esecuzione di algoritmi e istruzioni complesse. Un'operazione resa possibile da un certosino lavoro di "adattamento" a livello di sviluppo software e linguaggi di programmazione, cominciato a inizio millennio e proseguito poi per oltre un decennio.

Le GPU dell'era moderna

I primi acceleratori grafici "moderni" fanno la loro comparsa nella seconda metà degli anni '90 quando i primi videogames con grafica tridimensionale si affacciano sul mercato internazionale.  Le esigenze di questi titoli, infatti, rendono necessario lo sviluppo di un processore grafico in grado di elaborare centinaia di migliaia di poligoni al secondo, così da poter mostrare immagini sempre più fluide e sempre più verosimili.

 

Schede video montate nello stesso sistema informatico

 

Anni di sviluppi e progressi, però, non hanno portato solo a giochi sempre più realistici e complessi: la capacità di macinare milioni e miliardi di FLOPS al secondo delle moderne GPU ha aperto le porte anche al cosiddetto GPU computing.

L'avvento del calcolo grafico

I primi a testare le capacità di calcolo "generico" degli acceleratori grafici delle schede video sono gli statunitensi di EM Photonics. Nella prima metà degli anni 2000, questa software house con sede a Newark (stato del Delaware) inizia a sviluppare piattaforme informatiche in grado di risolvere complessi algoritmi per la modellizzazione di antenne e altri dispositivi di comunicazione sfruttando la potenza di calcolo delle GPU. Si tratta, come detto, di un'operazione tutt'altro che semplice: come spiega il CEO Eri Kelmelis, i programmatori dovettero "travestire" gli algoritmi di modellazione e le equazioni matematiche da immagini.

 

Supercomputer "alimentati" a schede video

 

La svolta si ha nel 2006, quando NVIDIA rilascia CUDA, una piattaforma software che facilita il compito dei programmatori. Grazie alle librerie di CUDA, infatti, è possibile adattare con facilità gli algoritmi di calcolo pensati per le CPU (quindi destinati a un flusso di esecuzione sequenziale) al calcolo parallelo che contraddistingue le GPU moderne.

CULA dense e i supercomputer spaziali

Forte del supporto NVIDIA e della sua piattaforma CUDA, dal 2007 in poi EM Photonics inizia a sviluppare una propria piattaforma di GPU computing che possa risolvere complesse equazioni di algebra lineare. Nasce così CULA dense, software in grado di adattare algoritmi pensati per il calcolo sequenziale delle CPU al parallelismo delle GPU e delle schede grafiche sfruttando le librerie software LAPACK e BLAS. Accessibile da qualunque computer dotato di connessione web e con installato il client CULA (oltre alle due librerie appena citate), il software conta oggi decine di migliaia di utenti, pronti a sfruttare le sue incredibili capacità di calcolo per i compiti più disparati.

 

Supercomputer Titan

 

Tra i suoi "clienti" troviamo, ad esempio, molti scienziati della NASA, soliti utilizzare le equazioni di algebra lineare per calcolare traiettorie e quanto altro necessario in relazione alle missioni spaziali in corso (o in via di definizione) e il supercomputer Titan, tra i più veloci al mondo grazie anche alla possibilità di sfruttare la potenza di calcolo messa a disposizione da CULA dense.

A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
TecnologicaMente
Sei un Multitasking Master o un Procrastinatore Pro?
Immagine principale del blocco
Sei un Multitasking Master o un Procrastinatore Pro?
Fda gratis svg
Fai il test sulle abitudini di lavoro e studio con la tecnologia
Fai il test gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.