Ho provato gli occhiali Android XR, e sono pronti per il gran debutto
Questo è ciò che vogliamo
ta diventando una sensazione familiare, quel momento di piacere quando un'informazione, un video, foto, indicazioni di navigazione o persino una traduzione in tempo reale fluttuano davanti ai miei occhi. L'ho visto finora con i Meta Ray-Ban Displays e Meta Orion. Questo è il nuovo stato dell'arte per gli occhiali smart, ed ero entusiasta di vedere Android XR unirsi finalmente alla festa.
Questa settimana segna una svolta cruciale nel percorso di Google con Android XR, un viaggio iniziato in modo un po' sfortunato con il Samsung Galaxy XR, ma che ora è pronto a mantenere la promessa di occhiali smart indossabili, trasportabili ovunque e supportati dall'IA Gemini.
All'Android Show: XR Edition di lunedì, Google sta svelando due prototipi di occhiali smart in edizione sviluppatori: uno con un'esperienza monoculare e l'altro con un dual-display. Inoltre, si unisce al partner Xreal per dare una prima occhiata all'Xreal Project Aura, i primi occhiali smart vicini alla produzione a presentare Android XR.
Ho avuto una rara opportunità di provare tutti e tre i nuovi dispositivi di smart eyewear (e persino un aggiornamento al Samsung Galaxy XR) e ne sono uscito non solo impressionato, ma desideroso di iniziare a indossarne un paio a tempo pieno.
Display, Heads-Up
Abbiamo iniziato con il prototipo di occhiali Android XR monoculari, che si sono distinti per essere solo leggermente più spessi degli occhiali tradizionali. Erano stati pre-montati con lenti da vista adatte alla mia vista, posizionate proprio dietro quelle che sembravano normali lenti da occhiali trasparenti.
Google utilizza la tecnologia a guida d'onda (waveguide) sia per la versione monoculare che per quella a doppio display. In sostanza, questa tecnologia usa minuscoli display incorporati nei bordi delle montature. Le immagini vengono quindi proiettate attraverso la lente e trasmesse tramite le guide d'onda all'occhio o agli occhi di chi le indossa. Questo crea l'illusione di uno schermo o di immagini fluttuanti.
Uno degli aspetti più ingegnosi è che, mentre le immagini nitide, ad esempio dell'ora e della temperatura, possono rimanere fluttuanti davanti ai tuoi occhi, non occludono mai la tua visione. Invece, stai semplicemente cambiando la messa a fuoco da vicino (per visualizzare l'immagine in AR) a lontano, per vedere ciò che è realmente di fronte a te.
Iscriviti per ricevere ultime notizie, recensioni, opinioni, offerte tecnologiche e altro ancora.
Questo, tra l'altro, si pone in contrasto con i micro-display ad alta risoluzione utilizzati dalla maggior parte delle piattaforme di realtà mista come Vision Pro e Galaxy XR. Con questi ultimi, non si guarda mai attraverso una lente; invece, l'intero mondo, sia reale che aumentato, viene presentato tramite i micro-display stereo.
Google ha mantenuto entrambi i prototipi sottili, leggeri e comodi affidando la maggior parte delle operazioni di elaborazione a un Google Pixel 10 abbinato (il piano è farli funzionare anche con gli iPhone). Questa sembra essere la strategia preferita per questo tipo di occhiali smart da indossare sempre e, ad essere onesti, ha senso. Perché cercare di ricreare la potenza di elaborazione di un telefono nei tuoi occhiali quando sarai quasi certamente in possesso del tuo telefono? È un matrimonio che, nella mia breve esperienza, funziona.
Android XR
Google chiama le montature "Occhiali AI" (AI Glasses), puntando sull'assistenza sempre pronta che Google Gemini è in grado di fornire. Ci saranno modelli privi di display che ascolteranno la tua voce e forniranno risposte attraverso gli altoparlanti integrati. Durante le mie dimostrazioni, ho visto che, anche con i display spenti, avere Gemini a disposizione poteva comunque essere utile tramite interazioni audio.
Tuttavia, c'è qualcosa di irresistibile nei display all'interno delle lenti.
Mentre il display monoculare mostra solo un occhio, il tuo cervello si adatta rapidamente e tu interpreti i frammenti video come mostrati a entrambi gli occhi, anche se parte di essi è leggermente spostata a sinistra del centro.
La mia esperienza iniziale è stata quella di una piccola ora e temperatura fluttuanti; potevo mettere a fuoco per visualizzarle o guardare oltre per ignorarle. È anche possibile, ovviamente, spegnere il display.
Per certi versi, l'esperienza successiva è stata molto simile a quella che ho avuto pochi mesi fa con i Meta Ray-Ban Display.
Le montature sono dotate di telecamere che puoi utilizzare sia per mostrare a Gemini il tuo mondo, sia per condividerlo con altri.
Invocando Gemini con una pressione prolungata sull'astina, gli ho chiesto di trovarmi della musica adatta all'atmosfera della stanza. Gli ho anche chiesto di riprodurre una canzone di Natale di David Bowie. Fluttuava davanti al mio occhio un piccolo widget di riproduzione di YouTube collegato alla versione di "Little Drummer Boy" di Bowie/Bing Crosby, che potevo sentire attraverso gli altoparlanti integrati degli occhiali. I dirigenti di Google mi hanno detto che non era necessario scrivere alcun codice speciale affinché apparisse in questo formato.

Ad un altro punto, ho guardato uno scaffale pieno di generi alimentari e ho chiesto a Gemini di suggerirmi un pasto basato sugli ingredienti disponibili. C'erano delle scatole di pomodori, quindi naturalmente, mi è stato suggerito il sugo di pomodoro. Ho colto ogni opportunità per interrompere Gemini e reindirizzarlo o interrogarlo. Ha gestito tutto questo con facilità e cortesia, come qualcuno abituato ad avere a che fare con clienti scortesi.
Scattare una foto è facile, ma le montature hanno anche accesso ai modelli di Gemini e possono utilizzare Nano Banana Pro (probabilmente si riferisce a un modello o funzionalità AI scherzoso/prototipo interno a Google) per aggiungere miglioramenti basati sull'IA.
Ho guardato un davanzale vicino e ho chiesto a Gemini di riempire lo spazio di orsetti di peluche. Come la maggior parte delle altre richieste, questa è passata dagli occhiali al telefono e al cloud di Google, dove Nano Banana Pro (probabilmente si riferisce a un modello AI interno a Google) ha svolto rapidamente il suo lavoro.
Nel giro di pochi secondi, stavo guardando un'immagine fotorealistica di orsetti di peluche adorabilmente sistemati sul davanzale della finestra. L'immagine è sempre relativamente nitida e chiara, ma senza mai bloccare completamente la mia visione.
Qualcuno del team Google mi ha chiamato usando Google Meet; ho risposto e ho visto un video di loro. Poi ho mostrato loro la mia visuale.

na delle dimostrazioni più sorprendenti è stata quando un oratore di lingua cinese è entrato nella stanza e gli occhiali hanno rilevato automaticamente la sua lingua e l'hanno tradotta al volo. Ho sentito le sue parole tradotte in inglese nelle mie orecchie, ma potevo anche leggerle davanti ai miei occhi. La velocità e l'apparente accuratezza erano sbalorditive.
Naturalmente, gli occhiali potrebbero essere un eccellente sistema di navigazione heads-up. Ho chiesto a Gemini di trovare un museo nelle vicinanze e, una volta scelto il Museo delle Illusioni (visive, non magiche), gli ho chiesto di fornirmi indicazioni turn-by-turn. Quando ho alzato lo sguardo, potevo vedere dove dovevo girare dopo, e quando ho guardato in basso, potevo vedere la mia posizione sulla mappa e la direzione in cui ero rivolto.
Google ha collaborato con Uber per estendere questa esperienza agli spazi interni. Mi hanno mostrato come il sistema potrebbe aiutarmi a orientarmi all'interno di un aeroporto basandosi sui dati di navigazione di Uber.

Doppia visione
Successivamente, ho indossato i prototipi a doppio display. Non sembravano né più grandi né più pesanti delle versioni monoculari, ma fornivano un'esperienza visiva nettamente diversa.
Innanzitutto, si ottiene un campo visivo più ampio e, poiché si tratta di due display (uno per occhio), si ha una stereo-visione istantanea.
Nelle mappe, questo offre panoramiche 3D delle città che cambiano in base al modo in cui le si guarda. Le montature possono rendere 3D qualsiasi immagine o video, sebbene alcuni di questi risultassero un po' strani ai miei occhi; preferirò sempre visualizzare contenuti spaziali che sono stati effettivamente girati in 3D.
Tuttavia, è utile in Google Maps dove, se si entra in un esercizio commerciale, i doppi display trasformano ogni immagine interna in un'immagine 3D.
Xreal Project Aura
Il team Android XR di Google mi ha offerto una breve demo pratica in anteprima del Project Aura.
Xreal è stato un pioniere negli occhiali con display che essenzialmente producono schermi virtuali da 200 pollici da qualsiasi dispositivo connesso tramite USB-C (telefoni, laptop, console di gioco), ma il Project Aura è una bestia diversa. Esso, come il Samsung Galaxy XR, è un sistema Android XR autonomo, un computer sul tuo viso in una forma leggera da occhiali. Almeno questa è la promessa.
Come l'Xreal One, gli occhiali utilizzano display Sony Micro LED che proiettano immagini attraverso prismi spessi verso i tuoi occhi. Anche questi occhiali erano pre-montati con la mia prescrizione, quindi potevo vedere chiaramente l'esperienza.
A differenza dei prototipi Android XR, gli occhiali Xreal Project Aura si collegano tramite una porta sull'estremità di un'astina a un puck di calcolo (compute puck) delle dimensioni di uno smartphone che, curiosamente, include un trackpad integrato per il controllo del mouse, sebbene non sia riuscito a farlo funzionare bene per me.
Offrono un campo visivo (FoV) chiaro e relativamente spazioso di 70 gradi. Come il Samsung Galaxy XR, l'Aura utilizza il controllo gestuale. Non ci sono telecamere che tracciano gli occhi, quindi ho dovuto intenzionalmente puntare e "pizzicare" gli elementi sullo schermo. Poiché è un sistema Android XR, le metafore di controllo, i menu e gli elementi dell'interfaccia sono, nel bene o nel male, identici a quelli che ho trovato con il Samsung Galaxy XR.
Li abbiamo usati per connetterci rapidamente a un PC nelle vicinanze per un'esperienza di produttività su grande schermo.
La mia parte preferita è stata una dimostrazione con un tabellone di gioco gigante. Si trattava di una sorta di gioco di carte in stile Dungeons and Dragons in cui potevo usare una o entrambe le mani per muovere e ridimensionare il tabellone di gioco 3D e piuttosto dettagliato. Quando ho girato la mano, una mezza dozzina di carte si è aperta a ventaglio davanti a me. Potevo afferrare ogni carta virtuale ed esaminarla. Sul campo da gioco c'erano piccoli pezzi di personaggi che potevo anche raccogliere ed esaminare. Per tutto il tempo, il puck del processore pendeva dalla mia cintura.
A differenza dei prototipi di AI Glasses, il Project Aura è ancora considerato un dispositivo "episodico", che potresti usare occasionalmente, di solito a casa, in ufficio o magari durante un volo.
Galaxy XR migliora
L'originale dispositivo Android XR, il Galaxy XR, sta anch'esso ricevendo un aggiornamento minore in questo ciclo.
Ho provato, per la prima volta, i Likenesses di Galaxy XR, che sono la versione di Google delle Personas su Vision Pro. A differenza di queste ultime, tuttavia, il tuo Likeness viene acquisito con il telefono. Da questo, viene generata una replica animata del tuo viso e delle tue spalle.
Ho effettuato una chiamata Google Meet con un rappresentante di Google e ho potuto vedere il suo Likeness dall'aspetto inquietantemente realistico, che sembrava tracciare tutti i suoi movimenti facciali. Includeva persino le sue mani. Siamo stati in grado di condividere uno schermo Canva e lavorare insieme.
Google mi ha detto che anche se qualcuno non indossa un visore come il Galaxy XR, dotato di telecamere che tracciano il viso, il sistema potrebbe essere in grado di utilizzare alla fine solo gli spunti audio per pilotare un Likeness e creare un avatar animato realistico all'altra estremità della chiamata.

Cosa ci riserva il futuro?
Mentre tutte queste demo sono state entusiasmanti, siamo ancora ad almeno mesi di distanza dalla disponibilità commerciale di Project Aura, e forse anche di più per gli occhiali con display AI Android XR.
Google non ha condiviso molto sulla durata della batteria né su quanto siano vicini a realizzare montature AI con display funzionanti (e relativamente accessibili) in collaborazione con partner come Warby Parker e Gentle Monster.
Tuttavia, in base a ciò che ho visto, siamo più vicini di quanto pensassi in precedenza. Inoltre, l'ecosistema per le montature e i dispositivi connessi, come gli importantissimi telefoni, gli orologi Pixel, i computer e gli app store, sembra si stia concretizzando.
Penso che abbiamo quasi finito con le nostre divagazioni sui dispositivi a immersione troppo costosi e ad uso episodico. Il momento per gli occhiali AR alimentati dall'IA è arrivato e io, per primo, sono pronto per iniziare.

A 38-year industry veteran and award-winning journalist, Lance has covered technology since PCs were the size of suitcases and “on line” meant “waiting.” He’s a former Lifewire Editor-in-Chief, Mashable Editor-in-Chief, and, before that, Editor in Chief of PCMag.com and Senior Vice President of Content for Ziff Davis, Inc. He also wrote a popular, weekly tech column for Medium called The Upgrade.
Lance Ulanoff makes frequent appearances on national, international, and local news programs including Live with Kelly and Mark, the Today Show, Good Morning America, CNBC, CNN, and the BBC.