Qualche giorno fa, il team di ricerca di Google insieme a quello della Tel Aviv University hanno mostrato al mondo GameNGen , un nuovo modello di intelligenza artificiale che è stato in grado di ricreare il primo Doom, lo sparatutto pietra miliare del genere, tramite tecniche di generazione di immagini AI.
Una scoperta molto interessante che, potenzialmente, potrebbe rivoluzionare l’industria del gaming. Scopriamo di più al riguardo.
Come funziona GameNGen
Stando alle prime informazioni GameNGen è in grado di generare nuovi frame di gioco di Doom a oltre 20 fps, sfruttando una singola unità di elaborazione tensoriale (TPU), un processore simile a una GPU ottimizzato per l’apprendimento automatico.
Questa nuova tecnologia potrebbe essere identificata come rendering neurale, un sistema che, aiutato dal progredire dell’intelligenza artificiale, potrebbe portare molte novità nel settore del gaming.
Lo stato delle cose viene spiegato molto chiaramente In un documento di ricerca chiamato “Diffusion Models Are Real-Time Game Engines". Qui gli autori dello scritto, Dani Valevski, Yaniv Leviathan, Moab Arar e Shlomi Fruchter spiegano che GameNGen utilizza una versione modificata di Stable Diffusion 1.4, un modello di diffusione di sintesi di immagini rilasciato nel 2022 che, di solito, viene utilizzato per produrre immagini grazie dall'intelligenza artificiale.
Chiaramente, per arrivare a generare Doom, i ricercatori hanno dovuto dare in pasto al modello decine e decine di ore di filmati e altri materiali riguardanti il celebre videogioco che, alla fine, hanno permesso a questo strumento di capirne il funzionamento e di replicarne il meccanismo.
Quale futuro per questa tecnologia
Come appena detto GameNGen rappresenta una svolta in questo settore dove, è vero che il progresso corre veloce, ma è ancora tutto in divenire e tutto un continuo sperimentare.
Si tratta, dunque, di un primo passo e la generazione di questi fotogrammi per Doom non è che la punta dell’iceberg di una sfida che potrebbe culminare nella realizzazione di giochi inediti e, magari, realizzati partendo semplicemente da un input testuale da parte dell’utente o da un’immagine.
Certo è che in futuro gli sviluppatori dovranno concentrarsi nella generazione di ambienti sempre più complessi che potrebbero andare ben oltre la grafica molto essenziale di un gioco uscito ormai più di 30 anni fa che, per quanto rivoluzionario all’epoca, oggi è considerato decisamente obsoleto.
Perciò, man mano che i modelli AI diventeranno più avanzati (e si spera anche più alla portata di tutti) potrebbe essere possibile vedere la nascita motori di gioco neurali sempre più sofisticati in grado di generare mondi interattivi grandi, coerenti e in continua evoluzione in tempo reale ma, soprattutto, senza dover passare per una programmazione complessa attraverso chilometri di linee di codice.
Questo, ovviamente, potrebbe cambiare radicalmente il modo in cui vengono realizzati i videogiochi e, magari, aiutare le persone a realizzare il proprio titolo anche senza essere ferrati in materia.
Siamo ancora ben lontani da questo traguardo, ma la tecnologia si evolve a un ritmo impressione e, probabilmente, è solo questione di tempo.
Per saperne di più: Google Gemini, cos’è e come funziona la nuova AI Multimodale di Google