Inicio » Sin categorizar » Por qué una gran alianza entre Intel y OpenAI sigue viéndose lejana

Por qué una gran alianza entre Intel y OpenAI sigue viéndose lejana

por ytools
0 comentario 0 vistas

En muy poco tiempo, OpenAI se ha convertido en uno de los compradores de computación más influyentes del mundo. La compañía ya tiene firmados acuerdos multimillonarios con NVIDIA, AMD y grandes nubes como Microsoft y Oracle para asegurarse un flujo constante de GPU de primera línea.
Por qué una gran alianza entre Intel y OpenAI sigue viéndose lejana
En esa lista de socios estratégicos hay una ausencia que llama la atención: Intel. Sobre el papel, una alianza entre el histórico gigante de los chips y la estrella mediática de la inteligencia artificial sonaría casi inevitable. Pero, en la práctica, analistas coinciden en que una gran asociación Intel–OpenAI es poco probable a corto plazo. Y el motivo central es directo: las soluciones de IA de "Team Blue" no dan la talla en la gama más alta.

OpenAI vive en el extremo más exigente del mercado: entrena modelos de frontera con miles de GPU durante semanas, persigue ambiciones cercanas a la AGI y necesita cada watt y cada ciclo de computación que pueda exprimir. Eso obliga a usar aceleradores de entrenamiento de máximo rendimiento, redes ultrarrápidas y, sobre todo, un ecosistema de software sólido y probado. Hoy, quien cumple mejor ese checklist es NVIDIA –con todo el universo CUDA– y, cada vez más, AMD con ROCm. En comparación, la oferta actual de Intel se percibe como una alternativa secundaria, útil en ciertos nichos, pero lejos de ser el corazón de la infraestructura de OpenAI.

Gaudi, Crescent Island y el dilema de escalar algo que ya llega tarde

La familia de aceleradores Gaudi nació como la respuesta de Intel a la hegemonía de las GPU de NVIDIA en los centros de datos. La promesa era clara: buen precio por teraflop, eficiencia razonable y una vía para no depender de un único proveedor. Sin embargo, en el nivel en el que juega OpenAI, donde se entrenan modelos gigantescos y cada generación de hardware se exprime al máximo, Gaudi se ve ya como una tecnología que llega con retraso.

Escalar un chip que muchos consideran desfasado a un rack completo no resuelve el problema básico. En el papel, un rack lleno de tarjetas Gaudi suma mucha potencia; en la práctica, basta compararlo con las últimas GPU de NVIDIA o con lo que AMD está sacando para que la diferencia se note. De ahí que en los foros se lean comentarios bastante crueles que resumen así la jugada: en vez de un producto puntero, lo que se consigue es "basura a escala de rack" muy bien empaquetada.

Para intentar cambiar el relato, Intel ha enseñado soluciones más especializadas. Crescent Island, por ejemplo, es una plataforma centrada en inferencia, con memoria LPDDR5 integrada en el propio módulo, pensada para ejecutar modelos ya entrenados de forma eficiente. En ciertos escenarios –servicios que solo necesitan responder consultas baratas o despliegues en la periferia de la red– esto tiene bastante sentido. Pero, para OpenAI, que sigue gastando fortunas en el entrenamiento de modelos cada vez más grandes, un buen chip de inferencia es importante, aunque no es lo que determina con quién firma los contratos más gordos.

La gran apuesta futura de Intel en este terreno lleva el nombre en clave Jaguar Shores. Sobre el papel, será una plataforma de IA capaz de escalar hasta configuraciones de rack y competir de tú a tú con los aceleradores más potentes de NVIDIA y AMD. El problema es que, a día de hoy, Jaguar Shores es más un conjunto de diapositivas y promesas que un producto que se pueda evaluar seriamente. Faltan detalles técnicos, benchmarks creíbles a gran escala y, sobre todo, grandes instalaciones en producción que demuestren que la apuesta es segura. Para una empresa como OpenAI, jugarse su hoja de ruta en algo tan difuso no es precisamente atractivo.

El verdadero cuello de botella: el ecosistema de software

Aunque Intel se acercara en hardware puro, quedaría otro frente igual de importante: el software. En el mundo de la IA, CUDA se ha convertido en el idioma nativo de la computación acelerada. Bibliotecas, frameworks, herramientas internas: todo parece venir optimizado primero para NVIDIA. AMD, con ROCm, ha trabajado duro para que migrar resulte menos doloroso y ya empieza a ser vista como una alternativa real de segundo proveedor para los grandes clientes.

Intel, en cambio, sigue en fase de convencer a la comunidad de que oneAPI y el resto de su pila de software son algo más que un experimento interesante. Durante años, la compañía pudo empujar estándares apoyándose en su dominio en CPUs y en su peso frente a fabricantes de PC y servidores. Pero en la era de los aceleradores para IA esa fórmula ya no funciona igual. Hoy deciden los equipos de ingeniería que viven pegados al código: buscan plataformas que "simplemente funcionen", sin drivers caprichosos ni herramientas verdes en mitad de un despliegue crítico.

Por eso, cuando en los comentarios se tacha la estrategia de IA de Intel de "lenta" o "arrastrada", no es solo troleo. Es un síntoma de que el ecosistema aún no transmite la confianza que exigen clientes como OpenAI, que no pueden permitirse que un fallo de software tire por la borda semanas de entrenamiento solo para ahorrar algo de dinero en hardware.

Política industrial, CHIPS Act y la posibilidad de un pacto por conveniencia

El panorama se vuelve más interesante cuando entran en juego la política y la estrategia industrial de Estados Unidos. Con el CHIPS Act y otros programas, Washington quiere que la fabricación de chips y la capacidad de cómputo crítica se mantengan dentro del país. Eso se traduce en créditos fiscales, subvenciones, garantías de préstamo y otros incentivos que pueden marcar la diferencia en proyectos de centros de datos gigantes como los que planifica OpenAI.

En ese contexto, algunos analistas imaginan un escenario en el que Intel y OpenAI cierren un acuerdo limitado, no tanto por razones técnicas como por conveniencia política. Una administración muy obsesionada con el sello "Made in USA" podría ver con buenos ojos un cluster de IA de OpenAI montado sobre hardware Intel, presentado como ejemplo de cadena de valor 100 % estadounidense financiada con dinero público. A cambio de desplegar un porcentaje de su capacidad sobre soluciones de Intel, OpenAI podría aspirar a condiciones más ventajosas en ayudas, energía o permisos.

Esa hipotética alianza no convertiría de la noche a la mañana a Gaudi o Crescent Island en los mejores aceleradores del mercado. Sería, más bien, un matrimonio de conveniencia, no una declaración de amor tecnológico. Y los más cínicos recuerdan que la relación entre grandes fabricantes y políticos ha sido estrecha bajo gobiernos de todo signo, así que tampoco conviene idealizar ese factor. Aun así, el papel de Intel como campeón nacional sí pesa en ciertos despachos y podría abrir la puerta, como mínimo, a un proyecto piloto con OpenAI.

¿Burbuja de IA o nueva infraestructura básica? Y dónde queda Intel en todo esto

Al mismo tiempo, sigue viva la discusión sobre si estamos ante una burbuja de IA o ante el nacimiento de una nueva capa de infraestructura tan básica como lo fue Internet. Hay quien ve valoraciones disparadas, modelos sin monetización clara y costes de entrenamiento que parecen insostenibles. Otros responden que, si unas pocas empresas logran productos realmente útiles y masivos, la demanda de cómputo seguirá creciendo durante años sin frenar.

Si este segundo grupo está más cerca de la verdad, la ausencia de Intel en el círculo de socios clave de OpenAI es algo más que una anécdota: es un problema estratégico serio. Cada trimestre en el que NVIDIA y AMD consolidan su liderazgo en aceleradores de IA es un trimestre en el que Intel pierde no solo ingresos potenciales, sino influencia a la hora de definir los estándares de hardware y software del futuro. Llegar tarde a ese tren puede salir carísimo.

Para que una gran alianza Intel–OpenAI tenga sentido de verdad, Intel tendría que colocar varias piezas en el sitio a la vez: un acelerador de entrenamiento competitivo de gama alta, un stack de software que deje de sentirse en beta eterna, despliegues demostrados a escala hipermacro y capacidad de fabricación para servir esa demanda sin retrasos. Hasta entonces, el escenario más razonable es el de la distancia cordial: OpenAI seguirá confiando sobre todo en NVIDIA y AMD, mientras Intel repite que la próxima generación será la que por fin cambie el guion. Un pequeño cluster experimental, impulsado por razones políticas, puede aparecer en el camino; un matrimonio tecnológico profundo, por ahora, sigue pareciendo una apuesta demasiado arriesgada para ambas partes.

También te puede interesar

Deja un comentario