AGI - Gli occhiali smart Ray-Ban di Meta hanno sempre più funzionalità. Meta ha recentemente annunciato l'introduzione di tre novità per il suo gadget da indossare: intelligenza artificiale (AI) dal vivo, traduzioni immediate e Shazam. Le funzioni di AI e traduzione dal vivo sono riservate ai membri del programma di accesso anticipato di Meta, mentre il supporto per Shazam è disponibile per tutti gli utenti negli Stati Uniti e in Canada. Per l'Europa, e quindi l'Italia, ci sarà ancora da aspettare.
L'AI dal vivo permette di interagire con un assistente virtuale mentre si osserva l'ambiente circostante. Si ricevono consigli su dove andare ma, ad esempio, possono essere suggerite anche ricette in base agli ingredienti che si stanno guardando, al mercato o a casa, e si hanno o avranno quindi a disposizione. Gli utenti saranno in grado di utilizzare la funzionalità per circa 30 minuti con una carica completa.
Iscriviti al canale Whatsapp di Agi per rimanere informato su ciò che accade in Italia e nel mondo. Clicca qui!
La traduzione dal vivo consente di conoscere, in tempo reale, il contenuto di conversazioni in diverse lingue, tra inglese e spagnolo, francese o italiano. Bisogna però scaricare 'le coppie di lingue' in anticipo, oltre a specificare l'idioma che si conosce rispetto a quella dell'interlocutore. Meta, scrive The Verge, concede l'opportunità di ascoltare le traduzioni direttamente tramite gli occhiali oppure, se più comodo, visualizzare i testi sul proprio smartphone.
La funzione di Shazam, come già possibile con il telefono, permette di identificare i brani musicali che sentiamo ma non riconosciamo. L'utilizzo è molto semplice e lo dimostra direttamente Mark Zuckerberg in un reel pubblicato su Instagram.
Per accedere a queste novità, si legge, è necessaria l'installazione della versione software v11 sugli occhiali e la v196 dell'app Meta View.