Google Lens en iOS y Android ha recibido un nuevo diseño más limpio y práctico. Google Lens es una herramienta de búsqueda visual que usa la cámara de tu teléfono para proporcionarte información sobre lo que estás viendo. Para usar Google Lens, solo tienes que encontrar la barra de búsqueda de Google en tu teléfono o en la aplicación de Google. En Android, el ícono de la cámara está dentro de la barra de búsqueda en la parte superior de la pantalla, mientras que en iOS, se encuentra justo debajo de la barra de búsqueda en la aplicación de Google. Al hacer clic en el ícono, se abrirá la cámara y podrás capturar el objeto que deseas explorar.
Una vez que el objeto esté en tu campo de visión, presiona el botón de búsqueda (o el botón de traducción si es necesario) para obtener más información sobre él.
Como parte de un esfuerzo por hacer sus aplicaciones más simples y limpias, Google ha actualizado Google Lens. Ahora, al abrir Lens, solo tendrás dos opciones: Buscar y Traducir. El botón de “Tareas” ha sido eliminado. Y esta eliminación tiene una razón: Google prefiere que uses Gemini AI para ayudarte con las tareas, ya que esta ofrece una comprensión más profunda y puede explicarte cómo llegó a la respuesta. Gemini puede desglosar problemas paso a paso, lo que proporciona un aprendizaje más completo en lugar de solo dar una respuesta directa.
Este cambio también ayuda a que Google Lens se vea más limpio. El visor en la pantalla se ha ensanchado un poco para mejorar la experiencia. Si usas la opción de búsqueda en Lens, ahora puedes activar el Modo IA desde el botón de búsqueda para obtener resultados más detallados sobre el objeto frente a tu cámara.
El nuevo diseño de Google Lens ya está disponible en el recién lanzado Galaxy Z Fold 7. Sin embargo, no pude encontrar la versión actualizada en mi Pixel 6 Pro con Android 16 QPR1 Beta. Curiosamente, encontré la nueva versión de Lens en mi iPhone 15 Pro Max con la beta de iOS 26 Developer Beta 3 instalada.
Apple también tiene una función similar en el iPhone 15 Pro, iPhone 15 Pro Max y en todos los modelos de la serie iPhone 16 (excepto el modelo 16e). Esta función se llama Visual Intelligence y está disponible a través del botón de control de cámara en los iPhones de la serie 16, mientras que en los iPhone 15 Pro y Pro Max se encuentra como una opción en el botón de acción. A diferencia de Google, que usa el procesamiento en la nube para Lens, Apple se apoya en el procesamiento directamente en el dispositivo para su función Visual Intelligence.