In Breve (TL;DR)
- Meta ha annunciato Live AI, una nuova funzione per gli smart glass Ray-Ban che utilizza feed video per fornire risposte contestuali basate sull’intelligenza artificiale.
- L’aggiornamento include anche Live Translation per traduzioni in tempo reale e sarà inizialmente disponibile solo negli Stati Uniti e in Canada tramite lista d’attesa.
Meta ha appena annunciato l’arrivo di un nuovo aggiornamento per i suoi smart glass a marchio Ray-Ban che aggiungerà una funzione chiamata Live AI.
Da quello che sappiamo, la nuova opzione sarà in grado di utilizzare un feed video per far capire il contesto delle domande poste dall’utente all’intelligenza artificiale che, in questo modo, saprà dare risposte molto più efficienti.
Un’idea molto simile a Project Astra presentato da Google solo qualche giorno fa. Ecco cosa sappiamo
Cosa cambia con l’aggiornamento degli smart-glass di Meta
Il nuovo aggiornamento introdotto da Meta è molto interessante e porta diverse novità a bordo degli gli occhiali smart prodotti da Ray-Ban.
Tra queste, la possibilità di utilizzare Shazam in modo che gli utenti possano rivolgersi direttamente agli occhiali per sapere il titolo di una qualsiasi canzone in sottofondo; titolo che sarà letto ad alta voce dal device stesso. Al momento questa funzionalità è attesa negli Stati Uniti e in Canada.
Altra novità interessante è la Live translation che consentirà al device di tradurre conversazioni in tempo reale, sfruttando ciò che gli occhiali inquadrano e ascoltano. La funzione è compatibile al momento con diverse lingue, tra cui: inglese, spagnolo, francese e italiano.
Ma il vero pezzo forte dell’update sono le nuove funzioni AI, tra cui l’appena citata Live AI che consentirà agli occhiali smart di catturare video dell’ambiente circostante e utilizzare queste immagini per aiutare l’utente a svolgere diverse attività, grazie proprio all’intelligenza artificiale che capirà il contesto della ripresa fornendo tutta l’assistenza del caso.
Dalle prime dichiarazioni di Meta sembra che questi dati verranno utilizzati per offrire suggerimenti prima ancora che vengano richiesti, spianando di fatto la strada all’intelligenza artificiale predittiva.
Per adesso, non c’è ancora una data di rilascio confermata e, fa sapere Meta, prossimamente lancerà queste funzionalità tramite una lista d'attesa destinata solamente agli utenti residenti negli Stati Uniti e in Canada.
Meta Vs Google, funzioni AI a confronto
Come già anticipato, anche Google sta lavorando a qualcosa di simile e Project Astra dimostra chiaramente che il colosso di Mountain View sta spostando (di nuovo) la sua attenzione verso il mondo degli smart glasses, anche grazie all’arrivo di Anroid XR.
Da quello che sappiamo, Astra (disponibile anche per Google Pixel 9) sarà in grado di registrare diversi minuti di video e utilizzarli per dare informazioni all’utente, un po’ come potrà fare Live AI di Meta.
Allo stesso tempo, però, trattandosi ancora di funzioni viste solo durante la presentazione ufficiale e non nell’utilizzo reale da parte degli utenti, resta ancora un po’ complicato capire il loro reale potenziale.
Ciò che colpisce, però, è come sia Meta che Google stiano virando prepotentemente verso la realtà estesa, prova inequivocabile delle prospettive future di questa tecnologia che proprio grazie all’intelligenza artificiale ha ritrovato lo slancio necessario a una (potenziale) diffusione di massa.
Per saperne di più: