Inicio » Sin categorizar » NVIDIA vs Google TPU: lo que realmente se juega en la batalla ASIC vs GPU

NVIDIA vs Google TPU: lo que realmente se juega en la batalla ASIC vs GPU

por ytools
3 comentarios 0 vistas

En el mundillo del hardware para inteligencia artificial hay una pregunta que no deja de repetirse: ¿pueden los Tensor Processing Units de Google, los famosos TPU, plantar cara de verdad al dominio de NVIDIA en los centros de datos? En las últimas semanas se han multiplicado los informes que hablan de acuerdos millonarios con Meta o Anthropic para usar TPU a gran escala, y de ahí ha nacido un relato muy tentador: los gigantes de Internet estarían cansados de pagar la “factura verde” de las GPU y se prepararían para mudarse al silicio hecho a medida de Google.

El ruido ha sido tan grande que NVIDIA decidió salir a dar su versión.
NVIDIA vs Google TPU: lo que realmente se juega en la batalla ASIC vs GPU
En un comunicado, la compañía felicita a Google por sus avances en IA y recalca que sigue suministrándole hardware. Pero en el mismo mensaje deja claro que ve los ASIC, como los TPU, como piezas limitadas a marcos y funciones muy concretos, mientras que su plataforma de GPU se presenta como el estándar capaz de ejecutar prácticamente cualquier modelo, en cualquier fase del ciclo de vida y en casi cualquier entorno. Traducido al lenguaje de la comunidad, muchos lo resumen así: “bien por tus TPU, pero el ecosistema gordo sigue siendo CUDA y nuestras GPU”.

GPU vs TPU: flexibilidad frente a especialización

Detrás de la capa de relaciones públicas hay un debate técnico muy real: chips universales frente a chips ultraespecializados. El TPU de Google es un ASIC de libro, diseñado desde cero para multiplicaciones de matrices y para el tipo de redes neuronales que dominan el deep learning actual. Las GPU de NVIDIA, en cambio, son más bien la navaja suiza de la computación acelerada: entrenan modelos gigantes, sirven inferencia en producción, hacen simulaciones científicas y, si hace falta, también renderizan gráficos o vídeos.

NVIDIA insiste en que esa capacidad de servir muchos usos diferentes es su gran ventaja. La empresa se define como “una generación por delante” del resto y como la única plataforma que puede ejecutar prácticamente todos los modelos relevantes de IA en todos los sitios donde se hace cómputo: nubes públicas, centros de datos corporativos, edge, estaciones de trabajo. Ahí entra el concepto de fungibilidad: una GPU comprada hoy para entrenar un LLM puede terminar mañana haciendo inferencia, dando servicio a visión por computador o sosteniendo un asistente de código, sin quedarse obsoleta por un simple cambio de moda en arquitecturas.

El contrapunto viene del lado de Google. Según una investigación de The Information, Meta estaría valorando un encargo de TPU valorado en miles de millones de dólares para reforzar sus cargas de IA. Algunos analistas han llegado a estimar que, si el uso externo de los TPU despega, podría llegar a representar algo similar a un 10% de la facturación actual de NVIDIA en IA. No es descabellado: Google lleva casi una década iterando sus TPU, ha verticalizado su pila – centros de datos, hardware, compiladores, orquestación – y utiliza sus propios chips de forma muy agresiva en inferencia, donde cuenta cada milisegundo de latencia y cada vatio de consumo.

La gravedad del software pesa más que los teraflops

Sobre el papel, la historia de Google seduce. Muchos de sus servicios estrella – búsqueda, YouTube, publicidad, la familia de modelos Gemini – se apoyan ya en TPU. En escenarios bien acotados, un ASIC interno puede ofrecer una combinación espectacular de rendimiento por vatio, latencia muy estable y costes muy afinados. Pero todas esas ventajas viven dentro de una frontera clara: la del conjunto de modelos que encajan bien en ese diseño. Cuando aparece una arquitectura nueva, un operador poco habitual o un tipo de red que todavía está en fase experimental, el primer lugar donde suele funcionar es en el hardware más flexible, y ahí las GPU de NVIDIA siguen teniendo la inercia de todo el ecosistema a su favor.

Ese ecosistema es justo lo que NVIDIA defiende con uñas y dientes. CUDA no es solo un logo en las diapositivas: detrás hay años de optimizaciones, ejemplos, kernels pulidos a mano y herramientas para profiling, despliegue y observabilidad. Equipos enteros en startups y grandes corporaciones han invertido miles de horas en aprender ese stack y en atarlo a sus procesos de negocio. Migrar todo eso a un nuevo acelerador no es “cambiar un flag en el compilador”; es reentrenar equipos, reescribir partes críticas de código, revalidar modelos, rehacer auditorías de seguridad y compliance. Para muchos responsables técnicos, el ahorro potencial de pasar una parte de la carga a TPU no compensa el trauma de rehacer medio sistema.

No sorprende, por tanto, que muchos ingenieros comenten con cierto sarcasmo en redes: “TPU rinde muy bien, pero nadie aquí tiene tiempo para tirar a la basura años de trabajo por una nueva moda de hardware”. Lo que en el Excel de la dirección se ve como optimización de costes, en el día a día se traduce en noches sin dormir, migraciones delicadas y riesgo operativo. En ese contexto, la frase de NVIDIA de que sus GPU ofrecen “más rendimiento, versatilidad y fungibilidad que los ASIC” suena menos a marketing vacío y más a guiño a quienes están apagando fuegos en producción.

Competidores, socios… o las dos cosas a la vez

Otro matiz que a veces se pierde en el ruido es que Google no solo compite con NVIDIA, también es uno de sus mejores clientes. El buscador compra grandes volúmenes de GPU para cargas que no encajan bien en TPU o que dependen de herramientas de terceros fuertemente integradas con CUDA. Eso significa que en muchos racks de Google conviven TPU y GPU, cada uno atacando el tipo de trabajo que mejor se le da. Para NVIDIA, es una relación de frenemies de libro: por un lado, Google desarrolla la familia de ASIC más seria del mercado; por otro, sigue pagando cheques muy jugosos a la propia NVIDIA.

Mirando hacia adelante, el verdadero campo de batalla no serán solo los megaentrenamientos que llenan titulares, sino la economía de la inferencia. Cuando los modelos pasan de demo viral a función integrada en productos que usamos a diario, los márgenes dependen de cuánto cuesta servir cada consulta, cada imagen generada, cada bloque de texto. Ahí los aceleradores especializados como TPU van a seguir ganando espacio, pero las GPU también evolucionan para ser más eficientes en inferencia sin perder flexibilidad. Todo apunta a un futuro mixto: nubes que corren chips a medida junto a GPU de NVIDIA, startups que alquilan lo que haya disponible y desarrolladores intentando abstraer ese “zoo” con runtimes y frameworks que hablen con todo.

En ese contexto, la respuesta de NVIDIA al hype alrededor de los TPU no es un simple “no pasa nada, estamos bien”, sino una declaración de estrategia: la compañía reconoce que los ASIC van a tener un papel cada vez más importante, pero apuesta a que, en un mundo donde cambian modelos, frameworks y casos de uso cada pocos años, la plataforma que sobreviva será la más adaptable, no la más estrechamente optimizada. Y ahí es donde espera que su ecosistema de GPU siga marcando el ritmo.

También te puede interesar

3 comentarios

Junkie December 10, 2025 - 4:35 pm

Lo mejor es que Google es a la vez uno de los mayores clientes y uno de los mayores rivales de NVIDIA, relación tóxica nivel Silicon Valley

Responder
RayChaser December 10, 2025 - 5:05 pm

Cuantos más tipos de chip metan en el data center, más dolores de cabeza para los devs que tienen que mantener todo eso 😅

Responder
Max December 14, 2025 - 8:05 pm

Si Meta de verdad se gasta miles de millones en TPU, NVIDIA lo va a notar, pero de ahí a enterrar las GPU hay un buen trecho

Responder

Deja un comentario