Gemini, la prima intelligenza artificiale multimodale realizzata da Google, è ufficiale e stando alle informazioni rilasciate da Big G è già in grado di “muoversi” a 360° tra diversi tipi di informazioni come testi, audio, video, immagini e linee di codice.
Oltretutto, sempre secondo le dichiarazioni del colosso della tecnologia, questo modello AI è anche compatibile con moltissimi dispositivi differenti, dai semplici smartphone fino ad arrivare ai molto più elaborati data center.
Insomma, il campo larghissimo dell’intelligenza artificiale si allarga ancor di più, spalancando le porte a questo nuovo sistema che, senza nemmeno il bisogno di dirlo, va a confrontarsi direttamente con ChatGPT.
Come funziona Gemini
Anzitutto bisogna dire che Gemini è disponibile in tre versioni: Gemini Ultra, il modello più complesso, sviluppato per le operazioni più elaborate e per specifici campi di utilizzo. Gemini Pro che sarà integrata in Google Bard e all’interno del motore di ricerca. Gemini Nano, il modello più piccolo che potrà essere utilizzato anche dagli smartphone, primi fra tutti i Google Pixel.
Escludendo le versioni Pro e Nano che sono quelle più “basic” a fare realmente la differenza è Gemini Ultra, il modello più avanzato dei tre e in grado di utilizzare ben 57 macro aree del sapere per risolvere efficacemente anche problemi complessi.
Attingendo a materie come matematica, fisica, storia, diritto, medicina ed etica, il sistema è capace di rispondere a qualsiasi tipo di quesito ed essere utilizzata per una miriade di compiti diversi.
Oltretutto, rispetto al ben più noto ChatGPT, qui si parla di una AI multimodale che può comprendere e lavorare su diversi tipi di input. La soluzione di OpenAI, invece, è in grado di utilizzare solo modelli testuali ma può essere integrata con altre applicazioni compatibili con immagini e altri tipi di contenuto, tipo DALL-E, ad esempio,
Cosa può fare Gemini
Le potenzialità di Gemini sono moltissime e questa nuova AI generativa è stata sviluppata per operare a tutto tondo sui vari input di cui sopra, in modo da rispondere nella maniera più efficace possibile alle varie domande.
Questo, stando a quanto diffuso da Google, permette al sistema di arrivare a un “ragionamento multimodale”, in grado cioè di districarsi tra contesti e contenuti diversi per dare risposte concrete anche a quesiti molto complessi (come quelli matematici o fisici).
Oltretutto, utilizza un sistema di apprendimento che si basa su “premi” e “punizioni”, cioè a ogni risposta ritenuta corretta (proveniente quindi da dati affidabili) l’AI riceve una sorta di “compenso”, cosa che ovviamente non accade in caso di risposte inesatte.
Così facendo il sistema è incentivato a fare del suo meglio, garantendo all’utente sempre (o comunque molto spesso) soluzioni concrete ai suoi problemi.
Quando arriva Gemini
Gemini è già ufficiale ma nelle prossime settimane sarà integrata anche all’interno di altri prodotti dell’ecosistema di Google come Search, Ads, Chrome e Duet AI.
Per gli sviluppatori, l’accesso alle API di Gemini Pro sarà disponibile dalla prossima settimana tramite AI Studio o Google Cloud Vertex AI.
Per quanto riguarda la versione Nano, invece, gli sviluppatori di applicazioni Android potranno iniziare a lavorare a questo strumento tramite AICore (disponibile all’interno di Android 14) e iniziare a sviluppare nuove app in esclusiva per i Google Pixel 8 Pro.
Infine per quanto riguarda l’utilizzo di Gemini Ultra ci sarà ancora da attendere e, dal prossimo anno, verrà integrata in Bard (che diventerà Bard Advanced) consentendo l’accesso alle nuove funzionalità.
Per saperne di più: Intelligenza Artificiale: cos'è e cosa può fare per noi