La apuesta de Meta por convertir las gafas en una ventana a la inteligencia artificial tuvo su momento estelar —y también el tropiezo— durante la presentación en Meta Connect. La compañía mostró las Meta Ray-Ban Display, unas gafas inteligentes con pantalla integrada y un brazalete neural para control por gesto, pero parte de la demostración en vivo no funcionó como se esperaba.
LEA TAMBIÉN

Las Ray-Ban Display son el primer modelo de Meta en llevar una pequeña pantalla de color dentro del lente derecho para mostrar notificaciones, subtítulos, mapas y videollamadas, y se venden como un paquete que incluye la Meta Neural Band, un brazalete que lee señales musculares para controlar las gafas con gestos sutiles. Meta anunció que el equipo saldrá a la venta a partir del 30 de septiembre y que el precio de lanzamiento parte de 799 dólares (poco más de tres millones en pesos colombianos).
¿Qué salió mal en la demo en vivo?
Durante la keynote, uno de los segmentos más comentados fue la demostración de videollamadas y de funciones de asistencia por IA. En la prueba para responder una llamada, el botón de aceptación no apareció en la pantalla y la función no reaccionó en el momento previsto. Meta atribuyó estos inconvenientes a una conexión Wi-Fi inestable durante la transmisión en vivo.
Los errores también afectaron la demostración en la que la IA debía asistir con una receta de cocina: en esa prueba, el sistema ofreció instrucciones equivocadas o fuera de orden, lo que interrumpió la dinámica prevista.
LEA TAMBIÉN

Pese a los tropiezos en la parte en vivo, la compañía sí logró mostrar otras capacidades: la integración con la Meta Neural Band para navegar sin tocar la pantalla, la posibilidad de ver mensajes y fotos sin sacar el teléfono y modos como ‘conversation focus’, diseñados para amplificar voces en entornos con ruido.
Meta también destacó que la pantalla está pensada para ser discreta —se activa solo en interacciones breves y está desplazada del centro del lente para no obstruir la vista— y reiteró su visión de convertir los lentes en un punto de acceso a capacidades de IA personal.
Ray-Ban Display ofrecen hasta seis horas de uso y 30 con estuche, disponibles en negro y arena. Foto:Meta
Detalles de las nuevas gafas
La pantalla interna tiene una resolución modesta en píxeles totales pero ofrece altos niveles de brillo (Meta menciona cifras de hasta varios miles de nits) y un campo de visión reducido —diseñado para información puntual, no para realidad aumentada inmersiva—.
El modelo Display se ofrece como el más caro de la nueva línea; Meta mantiene en catálogo versiones más económicas de Ray-Ban con cámara y otros modelos deportivos con la marca Oakley.
🇺🇸 | AHORA: Durante la conexión de Meta para el trabajo, intentaron hacer una demostración en vivo de sus nuevas gafas con inteligencia artificial y falló frente al público.
pic.twitter.com/9Wpt6qMd9d— Alerta News 24 (@AlertaNews24) September 18, 2025
¿Qué promete el brazalete neural?
La Meta Neural Band acompaña a las Ray-Ban Display y usa sensores electromiográficos (sEMG) para traducir señales musculares del antebrazo en comandos digitales: con movimientos discretos del dedo o la mano se puede, por ejemplo, desplazarse por menús o seleccionar opciones sin tocar las gafas. Meta presentó esto como una alternativa al teclado, ratón o pantalla táctil para interacciones cortas. La compañía ha señalado que cada brazalete debe ajustarse al usuario para funcionar correctamente.
LEA TAMBIÉN

Este lanzamiento se ha señalado como un paso concreto de Meta hacia wearables con IA, pero también recuerdan que la tecnología todavía enfrenta desafíos de software, conectividad y aceptación masiva.
MÁS NOTICIAS:
DANNA VALERIA FIGUEROA RUEDA
REDACCIÓN ALCANCE DIGITAL