NVIDIA no solo está cabalgando la ola de la inteligencia artificial, está intentando marcar dónde rompe la próxima ola. Según fuentes de la cadena de suministro en Taiwán, la compañía se habría asegurado el primer puesto –y prácticamente la exclusiva– en el próximo nodo de fabricación de vanguardia de TSMC, el proceso A16. 
Los primeros chips que aprovecharían este nodo serían GPUs para centros de datos con nombre en clave Feynman, llamadas a suceder a Rubin y Rubin Ultra y a tomar el relevo de la generación Blackwell en el mercado de aceleradores de IA.
De Hopper a Blackwell, Rubin y Feynman: un roadmap escrito en nanómetros
Para entender por qué A16 importa tanto, hay que mirar la hoja de ruta de NVIDIA con algo de perspectiva. Hoy el catálogo de aceleradores de la compañía se apoya en Hopper y, sobre todo, en Blackwell y Blackwell Ultra, fabricados en el proceso personalizado 4NP de TSMC, una versión refinada de la clase de 4 nm. Estos chips son el corazón de los grandes clústeres de entrenamiento de modelos generativos, y cada lote que sale de fábrica se agota entre gigantes de la nube.
El siguiente paso ya está perfilado: Rubin, previsto para 2026, y Rubin Ultra para 2027, marcarán el salto a la familia de 3 nm de TSMC, como N3P y sus variantes. Más adelante, hacia el final de la década, entra en escena Feynman, la generación que, según las filtraciones, estrenaría el nodo A16. En paralelo, TSMC está levantando las infraestructuras necesarias: se habla de una capacidad de hasta 160.000 obleas mensuales en 3 nm a final de año y de una rampa acelerada de la planta P3 en Kaohsiung, empujada precisamente por la demanda de NVIDIA.
Qué aporta realmente el nodo TSMC A16
A16 no es un simple cambio de etiqueta respecto a N2P. En los documentos internos y presentaciones a clientes se describe como el siguiente peldaño en rendimiento, consumo y densidad. Los objetivos que se manejan apuntan a un aumento de velocidad de alrededor del 8–10 % a igual potencia, o bien a un ahorro energético en el rango del 15–20 % manteniendo la misma frecuencia. A eso se suma una mejora estimada de la densidad de transistores de un 7–10 % frente a N2P.
En el plano físico, A16 adopta transistores tipo nanosheet y hace uso de la tecnología SPR (Super Power Rail), un esquema de alimentación por la parte trasera del wafer, conocido como backside power delivery. Al llevar las líneas de alimentación a la cara posterior del chip se libera superficie en la parte frontal para ruteo de señales, algo crucial cuando hablamos de GPUs y superchips con miles de núcleos y anchos de banda de memoria de varios terabytes por segundo. Menos interferencias y rutas más limpias se traducen en frecuencias más altas y diseños más compactos.
No es casualidad que TSMC venda A16 desde el primer momento como un nodo optimizado para IA y HPC, no como una solución genérica para móviles. El mensaje es claro: los primeros wafers irán a parar a clientes capaces de firmar contratos multimillonarios y sostener volúmenes estables durante años. En esa lista, hoy NVIDIA está en la primera línea.
Una alianza cada vez más cerrada entre NVIDIA y TSMC
La idea de que NVIDIA sea el cliente de lanzamiento –y de momento el único gran cliente– del nodo A16 encaja con la evolución de la relación entre ambas compañías. Durante años, Apple ha sido quien inauguraba los nuevos procesos de TSMC con sus SoC para iPhone y iPad. Esta vez, el reparto podría ser distinto: Apple liderará la entrada en la generación de 2 nm, mientras que otros clientes, según apuntan fuentes del sector, podrían saltarse directamente A16 y apuntar a un nodo posterior, a menudo mencionado en los roadmaps como A14.
Si eso se confirma, NVIDIA dispondría de una ventana de tiempo en la que A16 sería, en la práctica, un carril casi exclusivo para sus GPUs de alto rendimiento. Y en los nodos de vanguardia, unos pocos trimestres de ventaja marcan diferencias enormes. Los primeros meses de cualquier proceso nuevo están llenos de limitaciones: yields en fase de ajuste, volúmenes más bajos, precios por oblea disparados. Tener prioridad en esa fase significa poder sacar Feynman en volumen mientras parte de la competencia sigue afinando diseños en N3 o N2P.
¿Y la apuesta por Intel 18A o 14A? El debate que nunca muere
Cada vez que se filtra un movimiento de NVIDIA ligado a TSMC, las redes se llenan de la misma pregunta: ¿por qué no diversificar y llevar al menos una parte de la gama alta a Intel Foundry, aprovechando nodos como 18A o el futuro 14A? Los hilos de comentarios se mezclan con chistes: gente confundiendo 14A con los viejos 14 nm llenos de “++++”, memes de tablas de nodos imposibles y teorías de que medio sector está simplemente esperando a que 14A madure.
Pero detrás de la broma hay un dilema real: depender casi por completo de un único fabricante da poder de negociación, pero también crea un punto de fallo crítico. Desde Pascal en 16 nm, prácticamente todas las grandes familias de GPUs de NVIDIA –Volta, Ampere, Hopper, Blackwell– han salido de fábricas de TSMC. Cambiar al mismo tiempo de arquitectura, nodo y foundry para un producto tan sensible como un superchip de IA sería un experimento multimillonario con muchos factores de riesgo. En un contexto en el que cada mes de retraso significa perder cuota en un mercado hiperacelerado, la prudencia pesa más que la diversificación.
Precios, memes y el fantasma de la “RTX 6070 de 1.000 dólares”
En el mundo corporativo, la estrategia puede sonar impecable. En el terreno del usuario entusiasta, la percepción es bastante más amarga. Muchos jugadores siguen digiriendo las tarifas de la generación Ada, y la idea de futuras GeForce fabricadas en nodos tan caros como A16 dispara todas las alarmas. En foros y grupos de hardware abundan los comentarios irónicos sobre una hipotética “RTX 6070” que nacería en la franja de los mil dólares, mientras los grandes centros de datos compran aceleradores por pallets sin pestañear.
La realidad es que el centro de gravedad del negocio de NVIDIA ya no está en las tarjetas gaming, sino en los aceleradores de IA para la nube. Mientras los hiperescaladores estén dispuestos a pagar primas elevadas por cada chip disponible, la presión para contener precios en el segmento doméstico es muy limitada. Si la mayor parte de la capacidad inicial de A16 se destina a superchips Feynman, es probable que la traducción al mundo gamer sea un mix de escasez, lanzamientos muy escalonados y precios poco amables, muy lejos de lo que en su día fueron las series Pascal en 16 nm.
La respuesta de la competencia: AMD, hyperscalers y el plan de Intel
Todo esto no significa que NVIDIA juegue sola. AMD sigue reforzando su línea Instinct, Microsoft y Google avanzan con sus propios aceleradores y TPUs, y otros proveedores de nube exploran ASICs hechos a medida para sus cargas. Al mismo tiempo, Intel intenta rearmarse como foundry abierta con 18A y la promesa de nuevos nodos, buscando volver a ser una alternativa creíble a TSMC en el rango más alto.
Un escenario posible para la segunda mitad de la década es un mercado algo más polarizado: NVIDIA ganando terreno sobre A16 y sus sucesores con TSMC, mientras una parte de la competencia se apoya en Intel 18A/14A o en nodos especializados para ciertos tipos de chips. Queda por ver si ese equilibrio llega a consolidarse o si TSMC consigue mantener su ventaja tecnológica y de capacidad.
¿Burbuja de IA o nueva normalidad de la informática?
Por encima de los nombres de nodos y las hojas de ruta late una pregunta más incómoda: ¿estamos en plena burbuja de IA o ante una nueva capa básica de la infraestructura digital, tan permanente como lo fueron en su momento la web o el móvil? Si la demanda de cómputo para IA a gran escala sigue creciendo al ritmo actual, el movimiento de NVIDIA para asegurarse un acceso prioritario a A16 se recordará como un ejemplo de visión estratégica. Feynman y los chips que vengan después consolidarían a la compañía en el centro de casi cualquier discusión sobre potencia de cómputo.
Si, en cambio, el entusiasmo por la IA se enfría antes de que estas inversiones se amorticen, la otra cara de la moneda saldrá a la luz: enormes compromisos en los nodos más caros de la industria y una competencia que puede optar por soluciones “suficientemente buenas” en procesos más maduros y baratos. En cualquier caso, el eje NVIDIA–TSMC se ha convertido en el metrónomo que marca el ritmo del salto hacia geometrías cada vez más pequeñas. A16 no es solo una cifra en una diapositiva, sino una frontera que separa a quienes pueden pagar el ático del silicio para IA de quienes tendrán que exprimir al máximo los pisos inferiores.
1 comentario
Me veo venir una supuesta RTX 6070 en A16 por 1000 pavos y aún así colas infinitas en las tiendas online lol