Se oggi possiamo fare tutto con una semplice app, che facciamo girare su un piccolo e leggero smartphone che portiamo in tasca, è perché la legge di Moore ha funzionato, piuttosto bene, per ben 55 anni. Era il lontanissimo 1965, infatti, quando l'informatico statunitense Gordon Moore, che avrebbe fondato Intel solo tre anni dopo insieme a Robert Noyce, previde che la quantità di transistor integrati in un solo microchip sarebbe raddoppiata ogni 18 mesi.
Cinquantacinque anni dopo possiamo confermare che la legge di Moore non solo si è rivelata azzeccata, ma persino conservativa perché il numero dei transistor in un chip per molti anni è aumentato a ritmi anche maggiori. Ma da tempo, ormai, si parla di fine della legge di Moore e se ne parla con gran preoccupazione. È sempre più difficile, infatti, impacchettare in un microprocessore un numero di transistor sempre più elevato. Ma cosa succederà se la legge di Moore, alla fine, dovesse realmente "smettere di funzionare"?
Perché Moore aveva ragione
Quando Moore nel 1965 formulò la sua legge, che era fortemente empirica ma che si rivelò poi quasi una profezia, lo fece basandosi soprattutto su presupposti economici. Moore, che lavorava all'epoca alla Fairchild Semiconductor (che egli stesso aveva co-fondato), sapeva che aumentare il numero di transistor in un chip era fondamentale per aumentarne la competitività economica. Riuscire a mettere più transistor in un chip, infatti, non solo ne aumentava la potenza ma anche l'economicità.
Nel 1965, poi, si era ben lontani dai limiti fisici che, parecchie decine di anni dopo, avrebbero reso difficile continuare a creare chip con sempre più transistor al loro interno. Per decenni, quindi, Intel e le altre aziende che producevano microprocessori misero a punto processi produttivi sempre più avanzati che permettevano di creare transistor più piccoli e, soprattutto, di posizionarli sempre più vicini tra loro. Il primo vero microprocessore di massa di Intel, cioè l'Intel 4004, era infatti costruito con un processo produttivo a 10 micrometri, cioè 10.000 nanometri, l'unità di misura dei processi produttivi dei chip moderni.
Nel 2002 Intel produceva il Pentium 4 Extreme Edition a 90 nm (nanometri), nel 2006 produceva i Core i7 a 45 nm, dal maggio 2019 produce i Core i3, i5 e i7 con architettura Ice Lake a 10 nm. All'orizzonte ci sono i processi produttivi a 3 nm, che dovrebbero debuttare verso il 2023.
Perché la legge di Moore sta per finire
Oggi, al contrario che nel 1965, siamo molto vicini ai limiti fisici teorici che ostacolano il business as usual dell'industria dell'elettronica al quale abbiamo assistito in questi 55 anni di legge di Moore. Da una parte, infatti, è sempre più difficile e costoso creare i processi produttivi in grado "stampare" chip con più transistor al loro interno. Dall'altra, invece, più i transistor sono vicini e più c'è il rischio che gli elettroni "saltino" da un collegamento all'altro dei transistor generando errori di calcolo ed quindi un degradamento delle performance del sistema.
Nel 2016, per questo, la Semiconductor industry association (SIA) ha iniziato a ipotizzare ufficialmente la necessità di superare la legge di Moore, cioè di rallentare lo sviluppo quantitativo dei chip (sempre più transistor) e pensare invece ad uno sviluppo qualitativo del software (usare meglio i chip esistenti).
Cosa succederà dopo la legge di Moore
A livello teorico, se la legge di Moore smette di funzionare e i microprocessori non continuano a crescere in potenza con la velocità vista fino ad oggi, il mondo non crolla. È ampiamente dimostrato, infatti, che la gran parte di tutta questa capacità di elaborazione dei chip che abbiamo oggi viene letteralmente sprecata a causa di una cattiva programmazione dei software.
Molte applicazioni scritte per i computer di oggi, ad esempio, sono scritte con il linguaggio di programmazione Python, ideato a inizio Anni '90. I vantaggi di Python sono molti: è abbastanza semplice da usare, è multipiattaforma ed è disponibile in diverse implementazioni, per vari sistemi operativi. Ma le prestazioni delle applicazioni scritte in Python sono nettamente inferiori a quelle di equivalenti software scritti, ad esempio, in linguaggio C. Ciò vuol dire che oggi sprechiamo buona parte della potenza di calcolo dei nostri processori per elaborare istruzioni e non dati e che, se domani ci svegliassimo in un mondo tutto programmato in C, non lo riconosceremmo per quanto andrebbe veloce. Tutto questo, però, è più semplice a dirsi che a farsi.
I problemi del Post-Moore
Il fatto che la legge di Moore abbia funzionato così bene e per così tanto tempo ha trasformato l'elettronica in un bene di consumo di massa. Su questo bene di massa, poi, è nata una ricchissima economia che si basa sul fatto che la potenza di calcolo è data per scontata. A breve, però, ci troveremo nella situazione di aver bisogno di ancora più potenza: la diffusione degli algoritmi di intelligenza artificiale e di deep learning, infatti, sarà possibile soltanto se avremo processori sempre più potenti. Questo perché tali algoritmi si basano su una enorme quantità di dati processati: più dati vengono processati, più l'algoritmo diventa intelligente. Se domani non ci sarà abbastanza potenza per far girare gli algoritmi, però, la società si potrebbe dividere in due: chi ha la capacità, anche economica, di scrivere software ottimizzati per spremere al massimo i processori che non "crescono" più come una volta, e chi non ce l'ha.
Una delle possibili soluzioni è quella, di fatto già in atto da qualche anno, di usare le GPU delle schede grafiche al posto delle CPU classiche. Si è visto, infatti, che le GPU sono in grado di eseguire velocemente gli stessi calcoli su moltissimi dati, lavorando in parallelo, e questo è abbastanza congeniale allo sviluppo degli algoritmi di AI (Artificial Intelligence). Dall'altro lato, però, alcuni giganti come Google, Microsoft e la cinese Baidu hanno fatto una scelta opposta: progettare da zero nuovi processori dedicati appositamente a questi algoritmi.
È probabile che, ad un certo punto, questi nuovi processori dedicati abbiano la meglio sulle GPU (che, lo ricordiamo, nascono per i videogiochi e si adattano all'AI). Tutto ciò non farà altro che concentrare il mercato degli algoritmi di intelligenza artificiale nelle mani di pochissime aziende che, allo stesso tempo, scrivono il software e producono l'hardware. Una situazione non certo ideale, se pensiamo che sugli algoritmi di intelligenza artificiale e sull'elaborazione dei big data si baserà la società dei prossimi decenni.