login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

Per Meta, il futuro dell’AI deve ripartire dall’hardware aperto e accessibile

Ascolta l'articolo

L’importanza dell’hardware nello sviluppo dei modelli basati sull’intelligenza artificiale. Il progetto di Meta per l’evoluzione e la crescita dei sistemi AI

Meta AI Mamun_Sheikh/Shutterstock

L'intelligenza artificiale è diventata fondamentale per tutte le aziende che vogliono guardare al futuro; tra queste, ovviamente, c’è anche Meta che già da diversi anni mette a disposizione di persone e aziende diverse funzionalità AI per migliorare i propri servizi.

Mentre lo sviluppo dei modelli AI cresce esponenzialmente, è di vitale importanza far progredire anche l’infrastruttura che permette il funzionamento di queste tecnologie e che, chiaramente, deve essere in grado di “sostenerne il peso”. 

Ecco perché per Meta è cruciale anche tutto il discorso sull’hardware utilizzato che deve essere, anzitutto aperto e accessibile, e naturalmente estremamente efficiente per rispondere efficacemente alle sfide future.

Meta, l’importanza dell’hardware per i servizi AI

L’esempio calzante di quanto appena detto è Llama3.1 405B, il modello linguistico open source e multimodale sviluppato da Meta che, per essere addestrato a dovere (arrivando addirittura a più di 15 milioni di token) ha dovuto utilizzare oltre 16.000 GPU NVIDIA H100, cosa che l’ha resto il primo modello di grandi dimensioni a utilizzare un hardware di questa portata.

Numeri destinati a crescere e che, secondo l’azienda di Mark Zuckerberg, a breve richiederanno sforzi ancora maggiori per restare competitivi in un settore estremamente dinamico e in continua evoluzione.

Dalle ultime dichiarazioni, al momento Meta sta addestrando i propri modelli su due cluster da 24K-GPU ma già dai prossimi anni ci sarà bisogno di andare oltre, affidandosi a reti di elaborazione ad alta larghezza di banda che garantiranno le performance adatte ad affrontare efficientemente le sfide del futuro, prima fra tutte l’arrivo del Metaverso.

Per raggiungere questi obiettivi, però, c’è bisogno di soluzioni hardware aperte che possano, cioè, sfruttare le esperienze collettive in materia e semplificare la creazione di un’infrastruttura ad alte prestazioni, che sia sostenibile e adattabile.

Investendo in questa direzione è possibile sbloccare pienamente il potenziale dell’intelligenza artificiale e promuovere un’innovazione continua ed etica nel settore.

E in questo senso una delle principali novità annunciate è Catalina, il nuovo rack ad alta potenza progettato specificatamente per carichi di lavoro AI e pienamente compatibile con il super processore NVIDIA GB200.

Si tratta in sintesi di un “armadio” (che poi è la traduzione letterale di rack) che serve per ospitare e organizzare l’hardware, come le unità di storage, ad esempio, in modo da gestirne efficacemente i cablaggi e il sistema di raffreddamento. 

Perciò è chiaro che si tratta di un componente che può essere totalmente personalizzato in base a carichi di lavoro specifici, cosa che lo rende adatto praticamente a qualsiasi utilizzo e in grado di utilizzare tutti i principali standard del settore già esistenti e quelli ancora in via di sviluppo.

Al fianco di Catalina, Meta ha annunciato anche Grand Teton, la piattaforma AI di nuova generazione progettata con un’elevatissima capacità di elaborazione, significativamente maggiore rispetto alle tecnologie utilizzate fino a questo momento, una particolarità che gli consente di eseguire anche gli LLM più grandi e complessi senza troppe difficoltà.

Cruciale in questo momento anche la collaborazione con Microsoft si sta concentrando su Mount Diablo, un nuovo rack di alimentazione disaggregato che permette di utilizzare più acceleratori AI per rack IT, migliorando notevolmente le potenzialità dell'infrastruttura AI. 

Meta, il futuro delle infrastrutture AI

Costruire e mantenere operativa un’infrastruttura AI, tra modelli linguistici, data center e servizi cloud, ha un costo, sia in termini economici che in termini energetici e, visto il crescente aumento di questa tipologia di servizi potrebbe diventare impegnativo per un’azienda, anche se si tratta di una vera e propria Big Tech, come Meta appunto.

Per questo motivo, il futuro di tali tecnologie deve necessariamente essere Open Source, in modo da mettere questi strumenti a disposizione di tutti, ripartendo gli sforzi (economici ed energetici) e condividendo il sapere e le esperienze collettive allo scopo di far progredire l’intero settore.

E per fare questo, bisogna tornare nuovamente a quanto appena detto: investire in sistemi hardware AI aperti, una prerogativa indispensabile per fornire a tutti un’infrastruttura ad alte prestazioni, accessibile e adattabile alle singole necessità, che un tassello alla volta tracceranno la strada per il progresso dell'AI.

Per saperne di più: Intelligenza Artificiale: cos'è e cosa può fare per noi

A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
Fda
Prompt engineering
Immagine principale del blocco
Prompt engineering
Fda gratis svg
Come interrogare le intelligenze artificiali
Iscriviti al corso gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.