Sotto differenti punti di vista dovrebbe rappresentare una vera e propria rivoluzione per il mondo dell'informatica e, in maniera particolare, per quello dei supercomputer. Il progetto, sul quale al momento vige il massimo riserbo, è stato commissionato dal DARPA (l'agenzia di ricerca militare statunitense ideatrice, tra le altre cose, di ARPAnet) e vede la partecipazione di Intel e Qualcomm. L'obiettivo è quello di creare un processore per supercomputer in grado di analizzare con la massima efficienza e nel minor tempo possibile database di grandi dimensioni (i famosi Big data, per intendersi).
Si chiama HIVE (acronimo di Hierarchical Identify Verify Exploit, ma anche traducibile letteralmente con "alveare"), è stato finanziato con un fondo da 80 milioni di dollari e dovrebbe entrare in funzione prima del 2022. Entro quella data i tecnici di Intel e Qualcomm, in collaborazione con scienziati e ricercatori del Georgia Tech e del Pacific Northwest National Laboratory, dovranno realizzare una nuova tipologia di CPU, capace di processare simultaneamente moltitudini di dati e per questo motivo definito processore di tipo non-von Neumann (dal padre dell'informatica moderna, ideatore della cosiddetta Macchina di von Neumann, ovvero di una macchina, per definizione, a calcolo strettamente sequenziale).
Perché HIVE
I motivi che hanno spinto l'agenzia di ricerca militare statunitense a finanziare il nuovo modello di processore sono molteplici. Il principale, però, riguarda l'analisi dei dataset Big Data tramite l'individuazione di "modelli" e sequenze che si ripetono all'interno di informazioni apparentemente slegate tra di loro. In particolare, HIVE dovrà farsi carico dell'analisi di "dati sparsi" provenienti da diverse fonti (sensori, indicatori economici e scientifici, misure ambientali, ecc.) cercando di individuare delle "regolarità" a prima vista non identificabili.
Come funziona il nuovo processore del DARPA
Allo stato attuale, HIVE è un progetto unico nel suo genere. Come sottolineato dagli stessi ricercatori del DARPA, è il primo processore per l'individuazione e l'analisi dei grafi: partendo da informazioni disomogenee e apparentemente non coerenti, dovrà essere in grado di trovare collegamenti e regolarità tra vari elementi di dataset differenti. Per farlo, analizzerà contemporaneamente i dati provenienti da vari insiemi, utilizzando contemporaneamente più processori al lavoro su aree differenti della stessa unità di memoria.
Si tratta, dunque, di un approccio "non-von Neumann": l'elaboratore non sarà effettuata da un processore che completa una singola istruzione operando su una sola porzione di memoria prima di passare alla successiva, ma da più processori che scandagliano contemporaneamente i dataset nella loro interezza. Ciò consente di ottimizzare i tempi di analisi dei Big data e di ridurre notevolmente i consumi energetici necessari. In questo modo HIVE potrà essere sino a 1.000 volte più efficiente rispetto ai processori utilizzati oggi all'interno dei supercomputer.
Quali applicazioni per HIVE
Come detto, il progetto finanziato dal DARPA è finalizzato all'analisi di grandi dataset. Specializzato nei compiti di analisi e interpretazione dei dati, HIVE aprirà nuove (e più veloci) strade per identificare minacce (sia "fisiche" sia informatiche), predire e tracciare l'insorgere di epidemie ed emergenze socio-sanitarie e, più in generale, dare risposte a domande e risolvere problemi sino a oggi senza soluzione. In combinazione con nuove tecniche di machine learning e intelligenza artificiale, HIVE sarà in grado non solo di categorizzare elementi apparentemente differenti, ma aggiornerà, migliorandola, la propria struttura e la mappatura dei dati ogni qualvolta saranno fornite nuove informazioni.