Mark Zuckerberg, el CEO de Meta Platforms Inc., mostró recientemente las nuevas gafas de meta-ban-explay durante el evento Meta Connect en Menlo Park, California. Con un precio de $ 799, estas gafas marcan un cambio importante para Meta, que representan su primer producto de consumo equipado con una pantalla construida. Este progreso está en línea con la visión de Zuckerberg en la transformación de auriculares y anteojos en el dispositivo de computadora primario, posiblemente apagados los teléfonos inteligentes.
Aunque la pantalla está integrada en la lente derecha relativamente simplista en comparación con otros prototipos, está diseñado para mejorar la funcionalidad. Los usuarios podrán leer mensajes, ver vistas previas de fotos e incluso obtener acceso a subtítulos en vivo durante las conversaciones. Este lanzamiento sigue la introducción del año pasado de las gafas Prototype Orion, que pudieron cubrir imágenes 3D en el mundo físico, pero no estaban listos para el consumidor.
Las gafas Meta Ray-Ban-Display estarán disponibles oficialmente para su compra a partir del 30 de septiembre. Una función notable con estas gafas es el EMG-Poland fuzzy y gris, que interpreta las señales eléctricas de un cuerpo de cuerpo para hacer posible el control a través de los gestos de las manos. La pulsera se activa con una descarga eléctrica ligera cuando se aplica, una sensación descrita como al menos pero fascinante.
Usar las gafas está marcado por el aumento de una pequeña pantalla justo debajo de la mejilla derecha, que recuerda a una interfaz de teléfono inteligente compacta. Aunque la pantalla es de alta resolución, enfrenta una serie de desafíos con claridad, en particular contra los antecedentes del mundo real, lo que hace que algunos íconos se desvanezcan. La interfaz sirve principalmente a fines prácticos, lo que permite a los usuarios activar la cámara y mirar rápidamente los títulos de las canciones, en lugar de ofrecer una experiencia de entretenimiento convincente.
Durante la demostración, tratar con la pantalla resultó ser una mezcla de entretenimiento y frustración. Los usuarios pueden desplazarse formando aplicaciones formando gestos de mano específicos, como pellizcar los dedos para abrir aplicaciones, se requieren algo de tiempo y precisión. Los primeros intentos de controlar este gesto parecían escenas cómicas, mientras que los participantes luchaban por navegar a través de la tecnología.
Una vez conectado a la aplicación de la cámara, los usuarios pueden ver un ejemplo de fotos y videos en tiempo real, similar a una función de foto en imagen en los televisores. Sin embargo, el ajuste constante para concentrarse entre la pantalla digital y el entorno circundante creó una pequeña disonancia cognitiva.
Además, las gafas tienen integración con Meta AI, lo que hace posible las tareas del habla para la gestión de las funciones. En un caso, mientras capturaba imágenes de obras de arte, se esperaba que el asistente digital diera contexto sobre las pinturas, pero no respondió durante la demostración.
Una de las características sorprendentes fue la capacidad de capacidad viva, que resultó ser efectiva a pesar del ruido de fondo, lo que demostró la utilidad potencial en entornos fuertes. Los usuarios vieron texto en tiempo real de palabras habladas, mediante el cual la comunicación mejoró en diferentes contextos.
Al escuchar música en Spotify a través de las gafas, las pulseras permitieron a los usuarios ajustar el volumen intuitivamente simulando la acción de girar un botón. Esta interacción perfecta enfatizó la tecnología innovadora que está integrada en las gafas de muestra de rayos, lo que reforzó su posible atracción.
A pesar del alto precio que algunos consumidores pueden asustar, estas gafas tienen funciones únicas de que los desarrolladores pueden atraer nuevas aplicaciones en esta plataforma portátil emergente. En general, las gafas de exhibición de meta-ray-pan presentan una visión intrigante en el futuro de la tecnología personal, lo que significa que fusionamos afilados con interacciones digitales mejoradas.