Meta porta l’AI e Shazam nei Ray-Ban smart glasses: tutte le novità

Meta ha annunciato un importante aggiornamento per i suoi Ray-Ban smart glasses, che includerà tre nuove funzionalità: AI live, traduzioni in tempo reale e il supporto a Shazam.
La funzione AI live, già presentata durante l’evento Meta Connect 2024, consente agli occhiali di osservare l’ambiente circostante in tempo reale e fornire suggerimenti utili tramite l’assistente AI. Immagina di trovarti al supermercato: gli occhiali possono riconoscere i prodotti davanti a te e proporre ricette basate sugli ingredienti selezionati. Questa funzionalità è progettata per sessioni di circa 30 minuti, ottimizzando l’autonomia della batteria.
La funzione di traduzione in tempo reale permette a chi indossa i Ray-Ban Meta di conversare con chi parla inglese, spagnolo, francese e ora anche italiano. Le traduzioni possono essere ascoltate direttamente attraverso gli altoparlanti integrati o lette come trascrizioni sullo smartphone. Per sfruttare questa funzionalità, è necessario scaricare in anticipo i pacchetti linguistici e configurare le lingue di partenza e destinazione.
Il supporto a Shazam è già disponibile per tutti gli utenti negli Stati Uniti e in Canada. Identificare una canzone diventa semplicissimo: basta dire “Hey Meta, che canzone è?” per ricevere immediatamente il titolo e l’artista del brano in riproduzione.
L’aggiornamento arriva proprio quando Google ha lanciato Android XR, una piattaforma dedicata agli occhiali smart ed ai visori. Andrew Bosworth, CTO di Meta, ha dichiarato che il 2024 è stato un anno di svolta per gli occhiali AI, confermando che questi dispositivi rappresentano il futuro dell’hardware basato sull’intelligenza artificiale.
L’aggiornamento software v11, necessario per accedere alle nuove funzionalità, è già disponibile per il download insieme alla versione v196 dell’app Meta View. Gli utenti che desiderano accedere alle funzionalità esclusive possono iscriversi al programma Early Access direttamente dal sito ufficiale di Meta.