He estado probando gafas inteligentes durante casi una década. Y en ese tiempo, una de las preguntas que más me han hecho es «Oh, pero ¿puedes ver algo en ellas?» Durante años, tuve que explicar que no, gafas como esa todavía no existen realmente.
Ese ya no es el caso. Y aunque he visto un montón de gafas durante el último año que tienen algún tipo de exhibición, las gafas de exhibición Meta Ray-Ban se sienten más cercanas a cumplir lo que tantas personas imaginan cuando escuchan las palabras «gafas inteligentes».
Para ser claros, no ofrecen el tipo de AR inmersivo que es posible con Prototipo de Orión de Meta. De hecho, Meta considera que las «anteojos de IA de exhibición» son una categoría totalmente separada de AR. La pantalla está solo en una lente, la derecha, y su campo de visión de 20 grados es mucho más pequeño que los 70 grados en Orión. Eso puede sonar como un gran compromiso, pero no se siente como uno.
La pantalla única se siente mucho más práctica para un par de gafas que querrá usar todos los días. Está destinado a ser algo que puedas mirar cuando lo necesitas, no una superposición siempre sobre. El tamaño más pequeño también significa que la pantalla es mucho más aguda, a 42 píxeles por grado. Esto fue especialmente notable cuando salí con las gafas puestas; Las imágenes en la pantalla se veían aún más nítidas que a la luz interior, gracias a las características automáticas de brillo.
También aprecié que no puedas ver ninguna luz de la pantalla cuando miras a alguien que usa las gafas. De hecho, la pantalla apenas se nota en absoluto cuando las tienes de cerca.
Tener una pantalla más pequeña también significa que las gafas son más baratas, a $ 799, y que no se parecen a las gafas AR gruesas que hemos visto tantas veces. A 69 gramos, son un poco más pesados y más gruesos que los meta-bans meta de segunda generación, pero no mucho. Como alguien que ha probado demasiados pares de gruesas gafas inteligentes negras, me alegro de que Meta los esté ofreciendo en un color además del negro. Todos los marcos de estilo Wayfarer se ven en mi cara, pero el color de «arena» más claro se siente mucho más halagador.
La pantalla Meta Ray-Ban (izquierda) y las meta gafas de segunda generación-Ban (derecha). Las gafas de pantalla son un poco más gruesas.
(Karissa Bell para Engadget)
La pulsera de la banda meta neural que viene con las gafas de exhibición funciona más o menos lo mismo que la banda que usé en el prototipo de Orion. Utiliza sensores para detectar los movimientos musculares sutiles en su mano y muñeca y puede traducirlo en acciones dentro de la interfaz de las gafas.
Es difícil de describir, pero los gestos para navegar las interfaces de las gafas funcionan sorprendentemente bien. Puedo ver cómo podría tomar un poco de tiempo acostumbrarse a los diversos gestos para navegar entre aplicaciones, mencionar meta ai, ajustar el volumen y otras acciones, pero todos son bastante intuitivos. Por ejemplo, usa su pulgar para deslizar a lo largo de la parte superior de su dedo índice, algo así como un D-Pad, para moverse hacia arriba y hacia abajo y de lado a lado. Y puede levantar y bajar el volumen del altavoz manteniendo el pulgar e índice del dedo y girando la muñeca a la derecha o izquierda como si fuera una perilla de volumen.
No es ningún secreto que el objetivo final de Meta para sus gafas inteligentes es reemplazar o casi, su teléfono. Eso aún no es posible, pero tener una pantalla real significa que puede mirar su teléfono mucho menos.
La pantalla puede superficial de textos entrantes, navegación con vistas previas del mapa (para direcciones para caminar) e información de su calendario. También pude tomar una videollamada de las gafas, a diferencia del intento de demostración en vivo de Mark Zuckerberg durante su nota clave, y fue mucho mejor de lo que esperaba. No solo podía ver claramente a la persona con la que estaba hablando y su entorno, podía encender la cámara de mis gafas y ver una versión más pequeña del video desde mi lado.
También tuve la oportunidad de probar la función de enfoque de conversación, que le permite obtener subtítulos en vivo de la persona con la que está hablando incluso en un entorno fuerte que puede ser difícil de escuchar. Hubo algo muy surrealista en obtener subtítulos en tiempo real en una conversación con una persona que se encuentra directamente frente a mí. Como alguien que intenta no mirar las pantallas cuando estoy hablando con la gente, casi se sintió un poco mal. Pero también puedo ver cómo esto sería increíblemente útil para las personas que tienen problemas para escuchar o procesar conversaciones. También sería excelente para las traducciones, algo que Meta AI ya lo hace muy bien.
También aprecié que la pulsera te permite invocar meta ai con un gesto para que no siempre tengas que decir «Hey Meta». Es un pequeño cambio, pero siempre me he sentido extraño por hablar con Meta Ai en público. La pantalla también se dirige a otra de mis gripes desde hace mucho tiempo con las gafas Ray-Ban Meta y Oakley: enmarcar una foto es realmente difícil. Pero con una pantalla, puede ver una vista previa de su toma, así como de la foto después del hecho, por lo que ya no tiene que romper un montón y esperar lo mejor.
Solo he tenido unos 30 minutos con las gafas, por lo que realmente no sé cómo tener una pantalla podría encajar en mi rutina diaria. Pero incluso después de un corto tiempo con ellos, realmente se sienten como el comienzo del tipo de gafas inteligentes que muchas personas han estado esperando.




