Stability AI, la stessa società che ha sviluppato Stable Diffusion, il famoso generatore di immagini basato sull'intelligenza artificiale, ha rilasciato in modalità open source una suite di modelli di linguaggio di grandi dimensioni (LLM) chiamati collettivamente StableLM.
Destinati a confrontarsi con i più forti come GPT4 di OpenAI, i modelli sono ora disponibili in alfa per gli sviluppatori da utilizzare e adattare su GitHub. Inoltre, chiunque può provare una demo di StableLM sulla piattaforma di hosting Hugging Face.
StableLM sfida ChatGPT nella generazione di testo e codice
Un po’ come il suo rivaleChatGPT, StableLM è progettato per generare sia testo che codice in modo efficiente. È addestrato su una versione tre volte più ampia del dataset open source noto come the Pile, che combina informazioni provenienti da una serie di fonti Internet, tra cui Wikipedia, Stack Exchange e PubMed.
Con una formazione adeguata, i modelli StableLM possono produrre risultati notevoli anche con piccole quantità di parametri, rispetto a quelli della serie GPT. Attualmente la gamma è compresa tra 3 e 7 miliardi, ma nel prossimo futuro queste cifre sono destinate ad aumentare drasticamente fino a 65 miliardi.
I modelli StableLM ottimizzati si comportano come ChatGPT, rispondendo a istruzioni (a volte con umorismo) come "scrivi una lettera di accompagnamento per uno sviluppatore di software" o "scrivi testi per un'epica canzone di battaglia rap"
Come è tipico per qualsiasi modello di linguaggio di grandi dimensioni pre-addestrato senza ulteriore perfezionamento e apprendimento per rinforzo, le risposte che un utente ottiene potrebbero essere di qualità variabile e potenzialmente includere linguaggio offensivo e volgare. Ma questo dovrebbe essere mitigato con dati migliori, feedback della comunità e ottimizzazione.
Tuttavia, i modelli StableLM sembrano abbastanza capaci in termini di ciò che possono realizzare, in particolare le versioni ottimizzate tramite una tecnica sviluppata da Stanford chiamata Alpaca su set di dati open source, destinate esclusivamente a scopi di ricerca e rilasciate con licenza CC BY-NC-SA 4.0.
StableLM e la democratizzazione dell’AI generativa
StableLM espande i modelli di linguaggio open source su cui Stability AI ha già lavorato con l'organizzazione no profit EleutherAI e si basa sulla missione della società di rendere gli strumenti di intelligenza artificiale più accessibili, come con Stable Diffusion.
Con l'espansione e lo sviluppo dell'economia digitale, i modelli linguistici stanno diventando essenziali e Stability AI vuole che tutti possano dar forma al loro design. Lasciando l’accesso aperto, ricercatori e accademici possono sviluppare tecniche di interpretabilità e sicurezza oltre ciò che è possibile con i modelli chiusi.
Lo scorso ottobre Stability AI ha raccolto oltre $ 100 milioni in capitale di rischio con una valutazione dichiarata di oltre $ 1 miliardo, ma sembra stia bruciando liquidità ed è lenta a generare introiti
In passato, alcuni ricercatori hanno criticato il rilascio di modelli open source sulla falsariga di StableLM, sostenendo che potrebbero essere utilizzati per scopi sgradevoli come creare e-mail di phishing o sferrare attacchi malware. Ma Stability AI sostiene che l'open-sourcing sia l'approccio giusto. Del resto, anche i modelli commercializzati e custoditi come GPT-4, che dispongono di filtri e team di moderazione umana, hanno dimostrato di emettere “tossicità”.
In ogni caso, Stability AI non ha evitato le polemiche. La società è già nel mirino di cause legali che affermano di aver violato i diritti di milioni di artisti sviluppando strumenti IA text-to-image con immagini protette da copyright e scaricate dal web. E alcune comunità hanno sfruttato gli strumenti di Stability per generare deepfake di celebrità e rappresentazioni grafiche violente.
Per saperne di più: Intelligenza Artificiale, cos'è e cosa può fare per noi