Fastweb, uno dei principali operatori di telecomunicazioni in Italia annuncia oggi che farà leva sui servizi di intelligenza artificiale generativa e di machine learning di Amazon Web Services (AWS) per mettere a disposizione di terzi il suo Large Language Model (LLM) addestrato nativamente in lingua italiana. Ciò si basa sulla collaborazione di Fastweb con AWS per contribuire ad accelerare la trasformazione digitale delle imprese italiane e delle pubbliche amministrazioni.
Fastweb sta costruendo un ampio set di dati in lingua italiana combinando fonti pubbliche e dati concessi in licenza da editori e media. Utilizzando questi dati, Fastweb ha messo a punto il modello Mistral 7B tramite l’utilizzo di Amazon SageMaker, ottenendo miglioramenti prestazionali tra il 20% e il 50% sui benchmark di lingua italiana.
"Gli attuali modelli di intelligenza artificiale si affidano principalmente a dati in lingua inglese, ma una maggiore comprensione delle sfumature della lingua italiana può essere ottenuta dall’addestramento su set di dati in italiano accuratamente selezionati e di alta qualità. Questa iniziativa strategica contribuirà a promuovere la trasformazione digitale delle organizzazioni italiane che utilizzano tecnologie all’avanguardia nell’innovazione", ha affermato Walter Renna, amministratore delegato di Fastweb. "Rendendo questi modelli e applicazioni disponibili non solo a livello nazionale ma anche a livello globale attraverso l'ampio portafoglio di servizi di intelligenza artificiale generativa di AWS, siamo in grado di realizzare e scalare più facilmente le nostre soluzioni di intelligenza artificiale generativa, portando sul mercato nuove innovazioni più velocemente".
I nuovi modelli saranno resi disponibili su Hugging Face, consentendo ai clienti di distribuirli tramite Amazon SageMaker. In futuro, Fastweb prevede di rendere disponibile il proprio modello su Amazon Bedrock utilizzando Custom Model Import, in modo da poter creare e scalare facilmente nuove soluzioni di intelligenza artificiale generativa per i propri clienti utilizzando un'ampia gamma di funzionalità disponibili su Amazon Bedrock.
“Siamo impegnati a democratizzare l’accesso alla tecnologia e alle applicazioni di intelligenza artificiale generativa per i clienti in tutto il mondo. La disponibilità di LLM addestrati nativamente in più lingue è un elemento fondamentale per realizzare tale missione", ha affermato Fabio Cerone, Direttore Generale Telco Industry, EMEA presso AWS. “L’impegno di Fastweb per creare un LLM in lingua italiana e un’intelligenza artificiale generativa rappresenta un passo importante per rendere il potere di trasformazione dell’intelligenza artificiale generativa più accessibile alle imprese e agli enti pubblici italiani. Fastweb renderà più semplice per i clienti italiani l’utilizzo dell’intelligenza artificiale generativa per aiutare a risolvere più rapidamente le sfide aziendali, affrontare gli ostacoli operativi e accelerare la crescita attraverso la trasformazione digitale”.
Fastweb sarà inoltre presente all'AWS Summit 2024 con uno stand dove il pubblico potrà sperimentare soluzioni di intelligenza artificiale generativa e in ambito cloud e sicurezza eseguite su cloud AWS. Nell’ambito della manifestazione Fastweb e Verti, compagnia assicurativa italiana, si confronteranno sul progetto di migrazione cloud di Verti nel panel dal titolo "Il processo di valutazione per il viaggio nel cloud di Verti".
"Insieme a Fastweb stiamo realizzando una transizione strategica, facendo leva su AWS, che ci consente di ottimizzare l'infrastruttura, migliorare gli aspetti di sicurezza, essere più agili in risposta ai cambiamenti del volume di business, oltre ad accedere a servizi innovativi, incluse le nuove soluzioni di intelligenza artificiale generativa” ha dichiarato Antonio Messina, Responsabile Architettura e Infrastruttura Verti.