Meta quiere dar un salto decisivo en el mundo de la tecnología vestible. En la conferencia Meta Connect 2025, la compañía no solo presentó su nueva generación de gafas inteligentes con inteligencia artificial, sino que también anunció un movimiento clave: abrir el acceso a los sensores del dispositivo a desarrolladores externos.
Con el Meta Wearables Device Access Toolkit, la firma busca transformar las gafas en una plataforma abierta, lista para que terceros construyan aplicaciones que se usen directamente en el rostro.
El paquete permitirá acceder a la cámara, al audio abierto y al micrófono de las gafas. En otras palabras, los desarrolladores podrán crear experiencias que no dependen del teléfono, sino que aprovechan en tiempo real lo que el usuario ve y escucha. La idea es lograr que la realidad aumentada deje de ser una promesa futurista y se convierta en una herramienta práctica en la vida diaria.
Algunos experimentos ya muestran lo que viene. Twitch trabaja en transmisiones en vivo directamente desde las gafas, ofreciendo a los creadores la posibilidad de compartir su perspectiva en primera persona sin necesidad de equipos adicionales. Por su parte, Disney Imagineering desarrolla prototipos que ofrecen consejos y guías interactivas a los visitantes de sus parques. Estos ejemplos dejan claro que el potencial va mucho más allá del entretenimiento: también puede aplicarse a navegación, educación o apoyo en entornos de trabajo.
Aun así, el acceso será limitado en un inicio. Meta abrió un formulario de interés para quienes quieran unirse al programa, pero solo algunos socios seleccionados podrán publicar sus primeras integraciones. La compañía asegura que la apertura general no llegará antes de 2026, lo que convierte el próximo año en un periodo de pruebas controladas.
La apuesta es evidente: Meta busca que las gafas pasen de ser un accesorio llamativo a convertirse en un dispositivo central, del mismo modo que lo hicieron los smartphones en su momento. Pero esto también trae dudas sobre privacidad y seguridad: ¿es buena idea que aplicaciones de terceros accedan a sensores tan cercanos al usuario? Aunque la inquietud es válida, el potencial de utilidad es enorme. Imagina gafas que proyecten mapas interactivos, resúmenes en tiempo real o asistentes de productividad sin necesidad de usar las manos.
Los modelos Ray-Ban Meta, ya populares por su diseño y pantalla integrada, son los que más se beneficiarán de esta nueva etapa. Una vez que la comunidad de desarrolladores adopte el toolkit, veremos una ola de aplicaciones innovadoras. Para algunos puede sonar distópico, pero para otros es la oportunidad de llevar la computación un paso más cerca de la vida cotidiana. Meta apuesta claramente por lo segundo.