Inicio » Sin categorizar » Por qué el megacuerdo de 100.000 millones entre NVIDIA y OpenAI está lejos de estar asegurado

Por qué el megacuerdo de 100.000 millones entre NVIDIA y OpenAI está lejos de estar asegurado

por ytools
0 comentario 0 vistas

El posible megacuerdo entre NVIDIA y OpenAI, valorado en hasta 100.000 millones de dólares, se ha convertido en uno de los símbolos más llamativos de la burbuja de inteligencia artificial que vive el sector. Sobre la mesa está un despliegue de unos 10 gigavatios de capacidad de cómputo basado en los futuros sistemas Vera Rubin, es decir, una red de centros de datos tan grande que se parece más a la infraestructura de una compañía eléctrica que a un proyecto tecnológico convencional.
Por qué el megacuerdo de 100.000 millones entre NVIDIA y OpenAI está lejos de estar asegurado
Para muchos inversores, un contrato de ese tamaño consolidaría a NVIDIA como la columna vertebral de la infraestructura de IA a nivel mundial durante la próxima década.

Sin embargo, cuando uno se toma el tiempo de leer el último informe 10-Q de NVIDIA, el tono es bastante menos eufórico. La propia empresa advierte que no hay ninguna garantía de que las conversaciones con OpenAI terminen en un acuerdo definitivo y vinculante. El mismo aviso se extiende a otras posibles alianzas con gigantes como Intel o Anthropic. En lenguaje claro: el volumen potencial es enorme, pero esas cifras no deben interpretarse como ingresos asegurados ni como contratos firmados, sino como oportunidades sujetas a cambios de alcance, plazos y condiciones.

Es cierto que las secciones de “riesgos” en los informes de compañías cotizadas suelen ser un festival de cautelas legales. Lo que llama la atención aquí es la escala de lo que NVIDIA está matizando. Un despliegue de 10 GW implica miles de millones en GPUs, redes de alta velocidad, sistemas de almacenamiento, líneas de alta tensión, edificios, refrigeración y personal especializado, a lo largo de muchos años. No sorprende que en foros y redes aparezcan comentarios que hablan de “castillos de IA en el aire” y se burlen de la idea de que NVIDIA estaría confiando demasiado en promesas de OpenAI que, en la práctica, pueden no materializarse.

El CEO de NVIDIA, Jensen Huang, intenta contrarrestar esa narrativa. En una entrevista posterior a la presentación de resultados, insistió en que tanto NVIDIA como OpenAI están siendo deliberadamente prudentes y que no se trata de construir por construir. Según él, antes de poner la primera piedra de un nuevo clúster, las dos partes quieren alinear tres piezas: una visibilidad razonable de la demanda de largo plazo, la capacidad real de OpenAI para financiar un proyecto de esta magnitud y un plan de ejecución coherente con los retornos esperados. Traducido: la ambición puede ser enorme, pero la empresa quiere que los números cierren antes de enchufar otro gigavatio a la red.

Esa prudencia tiene sentido porque la infraestructura de IA se ha convertido en una de las apuestas más intensivas en capital de toda la historia tecnológica. OpenAI ha logrado construir una base masiva de usuarios, con cientos de millones de personas interactuando semanalmente con sus chatbots y modelos generativos. NVIDIA, por su parte, presume de que esas plataformas operan con márgenes brutos “saludables”. Pero uso intensivo no es lo mismo que ingresos estables. Suscripciones se cancelan, proyectos piloto en empresas se congelan, presupuestos de TI se recortan y, de un día para otro, un regulador puede imponer nuevas normas sobre datos, responsabilidad o competencia que obliguen a replantear por completo el modelo de negocio.

A todo esto se suman los límites físicos. Un ecosistema de centros de datos en el rango de los 10 gigavatios no sólo exige inversiones financieras descomunales, también presiona redes eléctricas, obliga a construir nuevas subestaciones, redefine el uso de suelo y demanda sistemas de refrigeración extremadamente exigentes. Con frecuencia, eso se traduce en un consumo considerable de agua o de energía adicional dedicada a enfriar. En muchas regiones ya hay resistencia a nuevos complejos de servidores, porque las comunidades locales temen más cortes, precios de la luz al alza y un impacto ambiental difícil de justificar sólo por tener modelos de IA más rápidos.

En paralelo, el contexto macroeconómico añade otra capa de incertidumbre. Las valoraciones de empresas relacionadas con la IA se han disparado en cuestión de pocos años, hasta el punto de que muchos analistas las comparan con la burbuja de las puntocom o con el exceso de optimismo previo a la crisis financiera de 2008. Los críticos señalan que los mercados ya descuentan aumentos de productividad y beneficios extraordinarios que todavía no se ven de forma generalizada en la economía real. En los rincones más pesimistas de Internet, no falta quien sugiera que un pinchazo de la “burbuja de la IA” podría convertirse en el detonante de la próxima gran corrección bursátil, justo encima de montañas de hardware de alto coste.

En este escenario, NVIDIA intenta caminar por una línea muy fina. Por un lado, sigue reforzando su imagen de proveedor imprescindible de aceleradores de IA y vende sus futuros sistemas Vera Rubin como la plataforma natural para la siguiente ola de modelos generativos. Conseguir que OpenAI firme un acuerdo a largo plazo y a gran escala sería un mensaje potentísimo para hiperescaladores en la nube, grandes corporaciones y gobiernos: si quieres hacer IA “en serio”, el estándar de facto sigue estando en el ecosistema de NVIDIA. Por otro lado, el tono del 10-Q deja claro que la compañía no está dispuesta a confundir oportunidad con realidad contable.

El hecho de que en esa misma sección de riesgos se cite por nombre a OpenAI, Intel y Anthropic no debe leerse tanto como alarma roja, sino como recordatorio de que todos los actores pueden cambiar de rumbo. Cualquiera de esas firmas podría apostar con más fuerza por chips propios, retrasar inversiones, perder acceso a capital barato o chocar de frente con nuevas reglas sobre datos, energía o competencia. Una reforma regulatoria sobre emisiones o sobre estabilidad de la red eléctrica podría hacer que un macrocentro de datos deje de tener sentido económico de la noche a la mañana.

Al final, la verdadera cuestión va más allá de saber si el famoso acuerdo de 100.000 millones se firmará exactamente en los términos que circulan ahora. La pregunta de fondo es si el mundo puede construir, alimentar, refrigerar y pagar de forma sostenible la infraestructura de IA a la escala que hoy se dibuja en las presentaciones. El lenguaje cauteloso del informe de NVIDIA sugiere una respuesta incómoda: el límite de la próxima fase de la inteligencia artificial quizá no esté en los algoritmos ni en la demanda, sino en el capital disponible, los kilovatios que las redes pueden soportar, los recursos hídricos y la paciencia de reguladores y sociedades. Para quien invierte en el boom de la IA o tiene que regularlo, ese mensaje discreto en la letra pequeña puede ser más importante que cualquier titular sobre los 100.000 millones.

También te puede interesar

Deja un comentario