Secondo la Legge di Moore (fondatore di Intel e tra gli ideatori dei microchip e dei processori che troviamo nei nostri computer, server e dispositivi informatici di ogni genere) il numero di transistor presenti di un chip (e quindi, in soldoni, la sua capacità di calcolo) sono destinati a raddoppiare ogni 18 mesi. E se fino ad oggi l'evoluzione tecnologica è riuscita a rispettare i dettami della legge, sembra che ci si stia velocemente avvicinando al limite: le caratteristiche fisiche del silicio, infatti, non permetterebbero di stampare circuiti più piccoli di 11 nanometri, imponendo di conseguenza uno stop allo sviluppo di nuovi processori e SoC.
Se ciò dovesse accadere, una delle conseguenze immediate riguarderebbe la capacità di calcolo dei dispositivi, sia mobili sia fissi: a fronte di istruzioni e programmi sempre più complessi da eseguire, ci si ritroverebbe con calcolatori dalla potenza forzatamente limitata. Per questo, diversi centri di ricerca sono impegnati su molteplici fronti pur di trovare una soluzione alternativa. C'è chi studia materiali alternativi al silicio; chi si interessa di meccanica quantistica o di computer ottici; chi, ancora, vuole trasportare le informazioni attraverso il calore anziché l'elettricità. IBM, in collaborazione con centri di ricerca universitari, vuole invece sviluppare un processore in grado di sfruttare gli impulsi luminosi ? anziché elettrici ? per far transitare più velocemente i dati tra le varie componenti del computer. L'era dell'informatica fotonica sembra essere ormai alle porte.
Fotonica ed elettronica
Sino ad oggi, fotonica ed elettronica hanno viaggiato su due tracce distinte e quasi parallele in ambito informatico. Se la fibra ottica è il mezzo di comunicazione preferito nel caso di reti di calcolatori di medie e grandi dimensioni, i collegamenti in rame su cui far correre gli elettroni hanno fatto la parte del leone nel campo dei chip e della componentistica informatica ed elettronica in genere. Insomma, fotoni fuori dallo chassis del computer, elettroni all'interno.
Negli anni passati sono stati fatti diversi tentativi per integrare le due tecnologie. Ovvi i motivi di questa scelta: la fibra ottica garantisce una larghezza di banda superiore a quella dei cavi di rame sfruttando le superiori capacità dei fotoni, che viaggiano più velocemente degli elettroni, sono in grado di conservare l'informazione trasportata per tratte più lunghe e sono di gran lunga meno soggetti al cosiddetto "effetto Joule". La fotonica, dunque, permetterebbe di scambiare una maggior quantità di dati, più velocemente e con maggior affidabilità sulla lunga distanza, disperdendo (e quindi consumando) anche meno energia.
Tre le direttive lungo cui si sono mossi scienziati e ingegneri per integrare fotonica ed elettronica (fibra ottica e rame) all'interno di un sistema informatico. Il primo passo ha permesso di integrare filamenti di fibra ottica sulla scheda madre di dispositivi informatici; il secondo passo ha dato modo di sostituire parte dei circuiti elettrici del socket del processore; il terzo e ultimo step riguarda, invece, la possibilità di utilizzare la fibra ottica all'interno del die del processore stesso, così da aumentarne l'ampiezza di banda e la potenza di calcolo. Gli studi e le ricerche IBM, condotte dai laboratori di New York e Zurigo, si sono concentrate sulla seconda delle tre direttive, presentando un prototipo di chip nel quale la fibra ottica e la fotonica lavorano fianco a fianco con i cavi di rame e l'elettronica.
Il chip fotonico
Il gigante statunitense è tra i primi a presentare un prototipo del genere. Alla base di tutto troviamo la CMOS Integrated nano-photonics technology, un processo produttivo che ha permesso di integrare nanotubi in fibra ottica all'interno di normali chip in silicio. La soluzione presentata da IBM prevede che i fasci laser siano ancora prodotti all'esterno del chip fotonico, che invece ospita ricevitori (laser input ports, "porte di ingresso per laser") in grado di raccogliere il fascio di fotoni carico di informazioni e trasportarlo verso i core del processore. Nel prototipo presentato si contano quattro ricevitori aventi, ciascuno, una larghezza di banda di 25 gigabit al secondo e in grado, dunque, di trasportare fino a 100 gigabit di dati (12,5 gigabyte; in quanto 1 byte equivale a 8 bit) verso il processore in appena un secondo. Il tutto anche con una maggiore efficienza e quindi minori consumi: l'energia richiesta per far viaggiare i dati lungo la fibra ottica, infatti, è di gran lunga inferiore rispetto a quella richiesta da un equivalente circuito elettronico.
A impressionare ancora di più (se possibile) è la tecnologia produttiva utilizzata per realizzare il chip fotonico. Mentre Intel e AMD si rincorrono nel restringere sempre di più lo spazio che separa i vari circuiti integrati stampati sui loro chip (oggi siamo nell'ordine dei 14 nanometri, ovvero 14 milionesimi di millimetro), IBM è stata in grado di realizzare il suo chip sperimentale, più veloce e performante, stampando circuiti a "soli" 90 nanometri di distanza l'uno dall'altro. Insomma, i margini di sviluppo e miglioramento della tecnologia fotonica applicata all'informatica sembrano essere davvero molto ampi.
Le possibili applicazioni
Anche se l'applicazione della fotonica porterebbe vantaggi in tutti i settori dell'informatica, al momento IBM sembra interessata - e concentrata - a sviluppare soluzioni che permettano di migliorare le prestazioni all'interno dei data center di grosse dimensioni. L'obiettivo è quello di offrire servizi cloud sempre più veloci e performanti. A questo scopo la società statunitense ha recentemente condotto un esperimento all'interno di uno dei suoi data center, trasportando dati, grazie al chip fotonico, alla velocità di 100 gigabit al secondo su una distanza di due chilometri.
Fotonica e quantistica
IBM, però, non è l'unica interessata a questo filone di ricerca. Un team di ricerca delle università di Bristol, Tokyo e Southampton ha pubblicato un articolo nel maggio 2015 descrivendo le modalità di applicazione della fotonica all'informatica quantistica. I tre centri di ricerca hanno condiviso le loro conoscenze per realizzare uno dei prototipi informatici più avanzati mai visti sinora.
Nel 2013 il professor Akira Furusawa dell'Università di Tokyo è stato tra i primi a realizzare il teletrasporto quantico, un'operazione complessa che ha richiesto macchinari e computer grandi diverse decine di metri quadrati. Un esperimento, dunque, difficilmente ripetibile e soprattutto difficilmente scalabile. A questo punto entra in gioco il , direttore del Centro di fotonica quantistica dell'Università di Bristol, professor Jeremy O'Brien, da tempo impegnato nello sviluppo di un chip fotonico. Uno dei prototipi di chip, appositamente modificato, è stato impiegato per mettere in atto - con successo - l'entanglement quantistico (fenomeno fisico che, di fatto, consente lo scambio di informazioni a livello quantico). Un risultato che apre nuovi orizzonti sia per l'informatica fotonica sia per l'informatica quantistica: il chip utilizzato nell'esperimento è grande pochi millimetri quadrati, rendendo così fattibile il teletrasporto dei qubit anche in macchine grandi come dei normali personal computer.