Durante más de una década el protagonista absoluto de la tecnología de consumo fue el smartphone. Pero poco a poco el foco se está desplazando hacia otro lugar: nuestro rostro. Cada vez más filtraciones apuntan a que la próxima gran plataforma no será una pantalla rectangular en la mano, sino unas gafas ligeras cargadas de inteligencia artificial. 
En ese contexto aparecen los rumores sobre dos generaciones de gafas inteligentes de Samsung, los movimientos silenciosos de Apple y la apuesta ya muy real de Meta con sus Ray-Ban. Y, como siempre, surge el debate simplista de que Samsung «solo sigue a Apple», aunque Apple todavía no venda ni un solo par de gafas inteligentes al usuario de a pie.
Termómetro de rumores: ¿qué tan creíble es el plan de Samsung?
La mayoría de detalles sobre las gafas de Samsung procede de un blog coreano especializado en recopilar chismes de la cadena de suministro. A veces este tipo de fuentes aciertan de lleno y otras veces acaban describiendo proyectos que mueren dentro del laboratorio. Por eso conviene poner las cosas en contexto antes de dar por hecho que ya conocemos la próxima gran revolución.
- Valoración global: alrededor de un 50% de plausibilidad. Hay humo, pero todavía no vemos el fuego.
- Calidad de las fuentes: aproximadamente 2 de 5. No hablamos de hojas de ruta oficiales, sino de información indirecta de proveedores y socios.
- Grado de corroboración: otro 2 de 5. Existen varias pistas, pero aún no un coro de filtraciones independientes.
- Viabilidad técnica: unos 3 de 5. Todo lo descrito encaja con lo que permite el hardware actual, aunque comprimido en una montura es otro nivel de dificultad.
- Confianza en los plazos: cerca de 3 de 5. Los años 2026 y 2027 suenan razonables, pero el historial de retrasos en AR y VR no invita al optimismo ciego.
En resumen: la historia encaja, pero está lejos de ser una promesa firmada. Es un escenario interesante, no un anuncio oficial.
La jugada en dos tiempos de Samsung: primero IA, luego realidad aumentada
Lo más llamativo de los rumores es la estrategia escalonada. Samsung, en lugar de lanzarse de cabeza a unas gafas de realidad aumentada completas, supuestamente optará por un primer modelo centrado en IA y otro posterior con pantalla AR integrada. El primer dispositivo, con nombre interno SM-O200P y objetivo de lanzamiento en 2026, se parecería más a unas gafas con superpoderes de asistente personal que a un casco futurista de ciencia ficción.
Según las filtraciones, este modelo inicial incluiría lentes con oscurecimiento automático al sol, micrófonos y conectividad permanente, pero no un microdisplay dedicado ocupando todo el campo de visión. El usuario seguiría viendo el mundo como a través de unas gafas normales, mientras que la parte «inteligente» viviría en el audio y en la interacción con el asistente. La idea es descargar muchas de las tareas que hoy hacemos con el móvil y los auriculares: dictar respuestas, pedir resúmenes de notificaciones, hacer una foto rápida, registrar un vídeo corto, consultar una dirección o anotar una idea sin sacar nada del bolsillo.
La segunda fase, que se situaría en 2027, subiría la apuesta. Ahí sí hablaríamos de un modelo con pantalla de realidad aumentada integrada en la montura, capaz de mostrar texto, indicaciones, elementos de interfaz y previsualización de fotos y vídeos directamente en la línea de visión. La música, las llamadas, las notificaciones y las funciones de cámara seguirían ahí, pero potenciadas por IA y apoyadas por un sistema visual que se superpone al mundo real. Si esta hoja de ruta se cumple, la primera generación sería el ensayo general y la segunda, la apuesta fuerte por unas gafas que ya pueden aspirar a sustituir parte del papel del smartphone.
Apple: entre el Vision Pro y el sueño de unas gafas ligeras con IA
En cualquier conversación sobre nuevas interfaces aparece Apple, aunque sea en forma de rumor. Hoy la compañía tiene en el mercado el Vision Pro, un dispositivo de realidad mixta con precio estratosférico y un diseño más cercano a un casco que a unas gafas. Durante meses se habló de un hipotético Vision Pro Air, más ligero y más barato. Sin embargo, informes recientes señalan que la estrategia se habría enfriado, en parte porque un proyecto de microdisplay de Samsung conocido como G-VR nunca habría llegado al punto que Apple necesitaba para abaratar su visor.
A partir de ahí, el relato cambia: Apple dedicaría más recursos a unas gafas centradas en IA, pensadas para funcionar como extensión del iPhone y no como sustituto total. Estas gafas, que también se mencionan para alrededor de 2026, integrarían cámaras, micrófonos y altavoces en una montura relativamente discreta, con una versión renovada de Siri que entiende contexto, tono y tareas encadenadas. El objetivo sería ofrecer notificaciones manos libres, traducciones en tiempo real, sugerencias discretas durante el día y pequeños «empujones» de IA sin obligar al usuario a mirar siempre una pantalla.
Y, al igual que en el caso del primer modelo de Samsung, no se espera que las gafas de Apple de primera generación incluyan un display AR completo. Serían, en esencia, unas gafas inteligentes con IA avanzada, no un visor holográfico al estilo película. La realidad aumentada visual quedaría para más adelante, cuando la tecnología de baterías, óptica y diseño permita algo realmente cómodo.
Meta Ray-Ban Display: el futuro que ya se puede probar
Mientras tanto, Meta juega otra partida: la del producto que ya se vende en tiendas. Sus actuales gafas Ray-Ban con IA combinan un aspecto muy cercano al de unas gafas de sol normales con cámaras, micrófonos, conexión a la nube y un asistente cada vez más capaz. Ofrecen hasta ocho horas de uso mixto, alrededor de dos horas de «IA en vivo», grabación de vídeo en 3K y un sistema de cancelación de ruido llamado Conversation Focus, diseñado para resaltar las voces que de verdad importan.
La evolución lógica de esa línea son las Ray-Ban Display. Aquí ya no se trata solo de escuchar al asistente: hay un display integrado que permite leer mensajes cortos, ver indicaciones de navegación, seguir traducciones sobreimpresas o mirar pequeños vídeos directamente en la lente. Meta presume de 42 píxeles por grado de campo de visión y de hasta 5.000 nits de brillo gracias a un motor de luz y a una óptica de tipo waveguide, suficientes para que la imagen sea legible tanto en interior como a plena luz del día.
Como complemento llega el Meta Neural Band, una pulsera que utiliza electromiografía para leer las señales nerviosas del antebrazo. Traducido: puedes controlar menús y gestos con movimientos mínimos de los dedos, casi invisibles para quien te rodea. Todo esto parte de un precio cercano a los 799 dólares, una cifra alta pero comparable a la suma de muchos móviles de gama alta y relojes inteligentes.
¿Quién sigue a quién en esta carrera?
A la luz de todos estos movimientos, la frase de que «Samsung persigue a Apple» se queda corta. Los hechos muestran algo distinto: a día de hoy Apple no tiene gafas inteligentes de consumo, y la empresa que marca el ritmo comercial es Meta, no Samsung ni Apple. Lo que parece estar ocurriendo es que Samsung y Apple reaccionan a la misma amenaza: que Meta se quede sola definiendo cómo será la informática del día a día más allá del teléfono.
Si damos algo de crédito a los plazos de las filtraciones, no veremos un rival directo de las Ray-Ban Display por parte de Samsung o Apple hasta 2027 como pronto. Eso da a Meta alrededor de dos años de margen para pulir hardware, entrenar modelos de IA con uso real, ajustar la autonomía y, sobre todo, entender qué es socialmente aceptable y qué genera rechazo. En ese escenario, la competencia no es solo un duelo Samsung vs Apple, sino también una carrera contrarreloj frente a un actor que ya está experimentando en la calle.
Límites de la tecnología y límites de la gente
Incluso si cada detalle de los rumores resultara exacto, el salto de prototipo a producto «ponible» todos los días está lleno de trampas. Unas gafas inteligentes tienen que ser ligeras, no calentar demasiado, aguantar al menos una jornada laboral lejos del enchufe y, encima, verse lo bastante normales como para que el usuario no sienta que lleva un casco espacial. Añadir un display brillante para AR complica todo: aumenta el consumo, obliga a ópticas más gruesas y hace que cada milímetro de la montura cuente.
A eso se suman los dilemas humanos. Ya hoy mucha gente se incomoda si nota que alguien la está grabando con el móvil. ¿Qué pasará cuando las cámaras vayan integradas en gafas aparentemente normales, capaces de grabar, reconocer y transcribir sin que nadie se entere? Habrá debates sobre cómo indicar que se está grabando, cómo se almacenan los datos, qué usos se permiten y qué comportamientos se consideran inaceptables, incluso aunque sean legales. Es fácil imaginar que algunos de estos temas retrasen lanzamientos o hagan que ciertas funciones lleguen recortadas.
Un vistazo al día después del smartphone
Pese a todas las incógnitas, la dirección general está clara. Todo apunta a que la industria quiere que el próximo «dispositivo principal» deje de ser el teléfono y pase a ser algo que se apoya suavemente sobre la nariz. Las primeras generaciones de gafas con IA serán imperfectas: baterías justas, software verde, miradas incómodas en el metro. Pero también pueden ofrecer momentos de auténtica magia tecnológica.
Imaginemos unos cuantos escenarios: flechas de navegación superpuestas a la calle, subtítulos en vivo que traducen una conversación, un asistente que te sopla el nombre de esa persona que sabes que conoces pero no recuerdas de dónde, un filtro silencioso que deja pasar solo las notificaciones críticas. Todo sin desbloquear el móvil, sin levantar la cabeza hacia otra pantalla. Ese es el futuro que se está disputando ahora mismo entre las supuestas SM-O200P de Samsung, las gafas con IA que Apple estaría preparando y las Ray-Ban Display que Meta ya tiene en las tiendas. Falta ver quién se queda con la corona, pero la carrera por lo que viene después del smartphone ya está en marcha.