El gran regreso de Jony Ive al diseño tecnológico no está saliendo tan fluido como muchos esperaban. El icónico diseñador británico, responsable de los productos más emblemáticos de Apple como el iPhone y el iMac, se ha unido a OpenAI para crear un dispositivo revolucionario sin pantalla, impulsado totalmente por inteligencia artificial.
Pero según varios informes, el proyecto enfrenta obstáculos técnicos y creativos que podrían retrasar su lanzamiento hasta 2026.
Problemas técnicos y decisiones complicadas
Fuentes cercanas al desarrollo aseguran que el diseño físico – elegante, minimalista y reconocible al estilo Ive – ya está prácticamente terminado. Sin embargo, la parte más compleja sigue siendo el software. Los equipos están intentando definir cómo debe comportarse el asistente: qué tono debe tener, cuándo debe hablar y cómo respetar la privacidad de los usuarios en un dispositivo que, por naturaleza, siempre está escuchando. Además, la potencia de cálculo necesaria para ejecutar los modelos de OpenAI plantea un desafío logístico y económico importante.
Uno de los ingenieros involucrados describió el reto como “un equilibrio casi imposible entre lo útil y lo invasivo”. Quieren crear un asistente que se sienta humano, pero que no resulte molesto ni excesivamente hablador. Y en el corazón del proyecto está una pregunta clave: ¿cómo hacer que una máquina sin pantalla parezca viva?
OpenAI asegura que es parte del proceso
Desde la empresa insisten en que se trata de obstáculos normales para un producto de nueva categoría. No obstante, los retrasos acumulados y la dificultad de integrar la IA en un formato físico están generando dudas sobre si el dispositivo realmente verá la luz en los próximos años.
Una nueva clase de compañero inteligente
El aparato tendría un tamaño similar al de un teléfono, con micrófonos, altavoces y cámaras que permitirían reconocer rostros, gestos y tonos de voz. Podría colocarse en una mesa o llevarse encima, recopilando información para aprender del entorno y del usuario. Suena fascinante, pero al mismo tiempo levanta cejas: ¿hasta qué punto queremos que una IA nos observe y escuche todo el tiempo?
Lecciones de los fracasos pasados
El mercado de los dispositivos de IA no es precisamente amable. Productos como el Humane AI Pin – en el que incluso invirtió Sam Altman – terminaron siendo un fiasco, principalmente por limitaciones técnicas y una experiencia poco práctica. Lo mismo ocurrió con el Rabbit R1, un pequeño asistente de 199 dólares que generó expectativa, pero acabó olvidado por su bajo rendimiento y escasa demanda. Con estos antecedentes, es comprensible que OpenAI adopte una estrategia más cautelosa antes de lanzarse.
Una apuesta multimillonaria con muchas incógnitas
En mayo, OpenAI compró la empresa de diseño de Ive, llamada io, por 6.500 millones de dólares, para convertir esta visión en realidad. La idea es desarrollar una IA integrada en la vida cotidiana, capaz de interactuar sin necesidad de pantallas. Un concepto ambicioso, pero arriesgado: convencer al público de abandonar las pantallas es casi tan difícil como reinventar el teléfono móvil.
¿Realmente la gente quiere vivir sin pantallas?
Ver videos, enviar mensajes, desplazarse por redes sociales… todo gira en torno al acto de mirar. La conexión visual con los dispositivos forma parte de la rutina moderna. Por eso, aunque el concepto de un asistente invisible resulta intrigante, probablemente cueste más de lo que OpenAI imagina cambiar ese hábito. Claro, si alguien puede hacerlo, es Jony Ive: el diseñador que convirtió el aluminio y el vidrio en objetos de deseo. ¿Podrá repetir esa magia en la era de la inteligencia artificial?