Una Rete più veloce, affidabile, economica ed immune ad attacchi DDoS? Possibile, eliminando i server. Questa l'idea di partenza di un gruppo di ricercatori del Computer Lab dell'Università di Cambridge il cui obiettivo è disegnare l'Internet del futuro.
Inseguendo un sogno
Fino ad oggi siamo stati abituati ad un'idea di Rete ben definita, basata su un'architettura client-server apparentemente insostituibile. In questo modello è il server a recitare la parte del protagonista: è questo componente a gestire risorse e informazioni, rendendole disponibili ai computer-client sparsi per il mondo.
Un'architettura che, sinora, non ha mostrato grandissimi segni di cedimento. I continui attacchi DDoS e l'inarrestabile aumento dei dispositivi connessi alla Rete – che ha portato al cambio dal protocollo IPv4 al protocollo IPv6 – sono, però, due dei campanelli di allarme che hanno fatto drizzare le antenne a molti esperti del settore. E da questi esempi ha preso le mosse il progetto Pursuit (traducibile dall'inglese con il verbo “inseguire”, “ricercare”), finanziato con i fondi dell'Unione europea e portato avanti da un team di scienziati dell'università britannica di Cambridge.
Cos'è Pursuit Internet
La nuova architettura immaginata dagli ingegneri di Cambridge dovrebbe dar vita ad una Rete che, come detto all'inizio, sia più veloce, sicura e, a suo modo, social. Questi risultati potranno essere raggiunti eliminando il server dall'architettura di Rete sostituendoli con un’architettura logica in cui le informazioni sono distribuite e replicate sui device ad essa collegati. Saranno, quindi, i singoli computer connessi al web a fornire i dati e le informazioni richieste da altri computer: grazie a protocolli sviluppati ad hoc, i normali computer di casa saranno in grado di copiare e rendere disponibili contenuti presenti nel loro disco rigido inviandoli, ad esempio, ad un altro utente distante anche diverse centinaia di chilometri. I nodi di una rete così progettata potranno accedere a diverse fonti contemporaneamente e scaricare da loro, simultaneamente, tutte le informazioni di cui hanno bisogno.
Il sistema appena descritto ricorda molto da vicino il funzionamento delle reti peer-to-peer. Le reti P2P, divenute famose per il file sharing, differiscono dalle normali reti per la loro architettura “paritaria”. In una rete come Internet, ad esempio, l'architettura si fonda sulla gerarchia e i “rapporti di forza” sussistenti tra server e client; in una rete peer-to-peer ogni nodo può essere, allo stesso tempo, sia server sia client. I dati e le informazioni, infatti, sono distribuiti e condivisi tra tutti i nodi della rete, così che non è necessaria la presenza di un “nodo centrale” (il server) che regga l'intera infrastruttura.
File sharing su scala mondiale
La differenza sostanziale tra Pursuit Internet e le reti P2P che conosciamo oggi risiederebbe sostanzialmente nell'estensione. Mentre le seconde sono in qualche modo limitate nello spazio e nel tempo, la prima non conoscerebbe limiti: andrebbe ad interessare tutti gli spazi occupati dal web così come oggi lo conosciamo. “Il nostro sistema – afferma Dirk Trossen, uno dei ricercatori del Computer Lab di Cambridge – si focalizza essenzialmente sulla parte più rilevante di Internet: il contenuto. L'unica ragione per cui ci preoccupiamo di indirizzi di Rete e di server è perché ci è stato detto di fare così. Ma non è assolutamente vero. Ciò che cerchiamo realmente quando navighiamo online sono i contenuti e le informazioni”.
Addio URL, benvenuto URI
A pagare il conto più salato di questa rivoluzione sarebbe l'URL (acronimo di Uniform Resource Locator, l'indirizzo di una pagina web, per intendersi). Nei piani degli scienziati britannici, infatti, sarebbe destinato alla pensione per lasciare spazio allo URI, acronimo di Uniform Resource Identifier. La differenza sostanziale tra i due sta nelle modalità di reperimento delle informazioni sul web.
L'URI specifica chiaramente dove è localizzato il dato o l'informazione di cui si ha bisogno e permette di accedervi in tempi brevissimi. “Con il nostro sistema – continua ancora Trossen – si potrà accedere direttamente ai contenuti salvati negli hard disk dei nodi a noi più vicini. Non ci sarà più bisogno di accedere alle risorse e alle informazioni di un'unica macchina: si potrà scaricare il contenuto che interessa dal nostro vicino di casa e dalla rete di utenti a cui lui è connesso. Si potrà accedere ad una moltitudine di fonti e ogni nodo che conserva in memoria quel contenuto potrà metterlo a disposizione completamente o parzialmente”.
L’adozione degli URI potrebbe segnare l'inizio di una nuova epoca per l'intera Rete. Navigando non ci si concentrebbe più sugli indirizzi e sulla “localizzazione” dei contenuti ma sui contenuti stessi indipendentemente dalla loro posizione nel web.
Una Rete del genere, senza server centrali cui far riferimento, sarebbe maggiormente scalabile e pronta a rispondere ai picchi di traffico in maniera più efficiente rispetto ad oggi. L'intero sistema sarebbe più sostenibile sia sotto il profilo dei contenuti sia sotto quello delle risorse. Una rete più veloce e affidabile, basata sul file sharing.