Graphcore è una piccola startup fondata a Bristol (Regno Unito) nel 2016 con il sogno (obiettivo, dicono i suoi fondatori) di cambiare una volta per tutte il mondo dei chip e delle CPU. A poco più di un anno dalla sua nascita, Graphcore ha raccolto fondi per 30 milioni di dollari, segno che la strada intrapresa dall'azienda britannica è quella giusta: creare chip a intelligenza artificiale che abbiano la capacità di velocizzare le operazioni legate all'analisi dei Big data e all'esecuzione di algoritmi di machine learning e intelligenza artificiale.
Quello di Graphcore, però, è solo uno dei tanti esempi che si potrebbe fare in questo momento storico. Dalla seconda metà del 2017 gli investimenti sui chip a intelligenza artificiale sono aumentati in maniera esponenziale, richiamando l'attenzione della stampa internazionale. Più o meno nello stesso periodo, Nvidia e la cinese Baidu hanno annunciato un accordo per accelerare lo sviluppo di soluzioni nell'ambito dell'intelligenza artificiale; Microsoft ha presentato i suoi piani per lo sviluppo di un chip AI per gli HoloLens; e Google continua lo sviluppo dei suoi chip TPU (acronimo di Tensor Processing Unit).
A dare un'ulteriore spinta allo sviluppo del settore ci hanno poi pensato i grandi nomi del mondo mobile, Apple e Huawei in testa. Gli ultimi top di gamma dei due produttori (il Mate 10 Pro di Huawei e l'iPhone X di Apple) montano dei SoC (rispettivamente, il Kirin 970 e l'A11 bionic) ottimizzati per l'esecuzione di algoritmi e istruzioni di intelligenza artificiale.
Oltre la Legge di Moore
Una nouvelle vague che potrebbe contribuire a dare una spallata definitiva alla Legge di Moore (l'assunto teorico-pratico per il quale il numero di transistor all'interno di un processore, e quindi la sua potenza di calcolo, raddoppia ogni 18 mesi). I nuovi chip AI, rispondendo a "stimoli" e comandi differenti, hanno un'architettura interna diversa rispetto ai processori e SoC montati da PC e smartphone odierni. Funzionando in maniera differente, i nuovi chip a intelligenza artificiale non avranno bisogno di raddoppiare il numero di transistor per veder crescere la loro potenza di calcolo.
Non è un caso, dunque, che sia proprio Intel (gigante del silicio co-fondato proprio da Moore) a essere rimasta leggermente più indietro rispetto ai più diretti concorrenti, Nvidia in testa. Un gap che l'azienda statunitense ha provato a riempire con l'acquisto dell'israeliana MobileEye per 15 miliardi di dollari, ma la strada è ancora piuttosto lunga.
Possibili applicazioni e settori interessati ai chip a intelligenza artificiale
Anche se si è ancora agli albori di questa tecnologia, è già possibile provare a immaginare quali saranno i settori che potranno godere dei maggiori benefici dei chip AI. L'intelligenza artificiale sarà molto utile nel campo del riconoscimento vocale, permettendo agli assistenti personali di essere sempre più efficienti ed efficaci; consentirà di sviluppare sistemi di guida autonoma più precisi e affidabili; potrà essere impiegata nel campo della sicurezza informatica, ad esempio nel riconoscimento di campagne spam e phishing. Per non parlare, poi, del grande utilizzo che i social network intendono farne per offrire agli utenti servizi sempre più attenti e mirati alle loro esigenze e aspettative.
Progetti a lungo termine
Lo sviluppo dei nuovi chip non è e non sarà immediato. Secondo Nigel Toon, cofondatore e CEO di Graphcore, saranno necessari almeno due decenni prima che i chip a intelligenza artificiale possano essere realmente utili per gli scopi che si prefiggono. "Riprogettare da capo l'architettura di un processore – sottolinea Toon – è un compito che richiede tempo e ingenti capitali. In particolare, sviluppare dei software che possano sfruttarne a pieno le potenzialità e le caratteristiche richiederà molto tempo. Circa 20 anni, se non di più".
Insomma, anche se Huawei ed Apple hanno già lanciato sul mercato i loro chip a intelligenza artificiale, le loro caratteristiche sono al momento sottoutilizzate dai dispositivi e (di conseguenza) dagli utenti. Non ci si poteva aspettare nulla di differente, d'altronde: lo stesso settore dell'intelligenza artificiale e del machine learning è ancora in piena fase di sviluppo e solo tra qualche anno potremo iniziare ad apprezzarli a pieno.