Inicio » Sin categorizar » Apple toma prestado el mayor cerebro de Google para reconstruir Siri

Apple toma prestado el mayor cerebro de Google para reconstruir Siri

por ytools
0 comentario 2 vistas

Apple está pidiendo prestado el “cerebro” más grande de Google para relanzar a Siri, y las cifras son de vértigo. Según fuentes del sector, la compañía integrará una versión a medida de Gemini con alrededor de 1,2 billones de parámetros para encargarse de las tareas más complejas del asistente.
Apple toma prestado el mayor cerebro de Google para reconstruir Siri
No es un giro ideológico, es pragmatismo puro: mantener lo esencial en el dispositivo y subir a la nube, de forma controlada, aquello que exige músculo masivo. El objetivo es nítido: respuestas más útiles, menos fricción y un compromiso de privacidad que no se desdibuje en el camino.

¿Por qué ahora y por qué Google?

Apple entrena sus propios modelos desde hace años, pero necesita una pasarela que le permita entregar funciones ambiciosas a escala global sin esperar otro ciclo tecnológico. Internamente, el proyecto se conoce como Glenwood y lo impulsan ejecutivos como Mike Rockwell y Craig Federighi. Antes de inclinarse por Google, la empresa comparó ChatGPT (OpenAI) y Claude (Anthropic). La elección de un Gemini personalizado no significa externalizar Siri; significa cubrir puntas de alta complejidad mientras el stack casa avanza y madura.

Arquitectura partida: quién hace qué

  • Planificador de consultas (Query Planner): el nuevo cerebro de rutas. Decide si lo óptimo es buscar en la web, abrir tu calendario, rescatar una foto o activar una acción en una app mediante App Intents. En peticiones ambiguas o de varios pasos, el Gemini de la nube toma el timón del razonamiento.
  • Resumidor (Summarizer): dentro de Apple Intelligence, genera resúmenes de notificaciones, páginas de Safari, textos largos e incluso audio. Cuando el contexto o el volumen sobrepasa lo local, el trabajo salta a la nube con Gemini.
  • Sistema de conocimiento (Knowledge Search): las respuestas rápidas de tipo enciclopédico permanecen on-device, lo que reduce latencia y evita enviar trivialidades a terceros.

Private Cloud Compute: la nube como extensión del perímetro seguro

La pieza que lo une todo es Private Cloud Compute, una arquitectura que trata la nube como un anexo del entorno confiable, no como un lago de datos. Las solicitudes viajan cifradas y sin estado; los servidores no conservan tu contexto personal y, según Apple, ni siquiera la propia compañía puede leer esas cargas efímeras. En la práctica, el usuario “alquila” capacidad de un gran modelo durante milisegundos y recupera la respuesta sin entregar su memoria privada.

El dinero habla: qué nos dice la cifra

Se estima que Apple pagará en torno a 1.000 millones de dólares al año por licenciar la tecnología de Google, dentro de un acuerdo en fase final. Suena a mucho, pero en plena fiebre de la IA es un número casi prudente. Para ponerlo en contexto: Google abonaría a Apple unos 20.000 millones anuales por ser el buscador por defecto en Safari y otros servicios. La comparación sugiere que, por ahora, la IA generativa se valora como infraestructura que impulsa engagement y fidelidad, no como una impresora de billetes a base de llamadas de API.

Hardware y operaciones: ¿TPU obligatoria o GPU estándar?

Una duda recurrente es si el Gemini a medida debe correr en los stacks de TPU de Google o si Apple puede ejecutarlo en GPUs convencionales dentro de su nube privada. Si la segunda opción es viable – y el discurso de Apple apunta a portabilidad – , la ventaja de Google se desplaza del silicio exclusivo a la calidad del modelo y a su cadena de herramientas y MLOps. En cualquier caso, la intención de Apple es clara: el contexto personal vive en el dispositivo, el razonamiento pesado se externaliza un instante, y la respuesta regresa lo bastante rápido como para sentirse local.

Qué notarás tú como usuario

  • Acciones dentro de las apps: Siri deja de ser un mero receptor de órdenes y ejecuta pasos reales: enviar un archivo por Mensajes, aplicar un ajuste a una foto, activar un Modo de Concentración o crear un tablero en una app de terceros, sin que tengas que navegar por menús.
  • Conciencia de contexto personal: con tu permiso, combinará señales de calendario, correo, mensajes y fotos para entender mejor la intención: “mueve el almuerzo con Maya a la semana que viene y comparte el documento de ayer”.
  • Conciencia de pantalla: podrás preguntar sobre lo que estás mirando. Siri comprenderá la página o la app actual y reducirá las idas y venidas.
  • Resúmenes de mayor calidad: digests de notificaciones, páginas largas y audios convertidos en resúmenes más estructurados y fieles a la fuente.

Lo estratégico, sin humo

La alianza se entiende mejor como un pacto de conveniencia: Apple compra tiempo y capacidad de entrega; Google gana distribución y una fuente adicional de ingresos para su modelo estrella. Más allá del fetiche de los parámetros – 1,2 billones o “yotta-lo-que-sea” – pesan tres cosas: integración de producto, límites claros de privacidad y mejoras medibles en el día a día. Los riesgos están en la ejecución: latencia, control de alucinaciones y una gobernanza sólida del acceso a datos personales.

En resumen: Apple no compra dependencia; compra velocidad y resiliencia sin renunciar a su plan. Si la arquitectura Glenwood cumple lo prometido, la “muleta” de hoy habrá sido el andamio que permitió construir una Siri más autónoma, contextualmente inteligente y, por fin, realmente útil.

También te puede interesar

Deja un comentario