OpenAI eligió Amazon Web Services (AWS) como columna vertebral para la próxima fase de crecimiento de ChatGPT y su pila de IA generativa. El acuerdo asciende a US$38.000 millones durante siete años, entra en vigor de inmediato y compromete a AWS a desplegar toda la capacidad contratada antes de que termine 2026, con opción de ampliación a partir de 2027. En el centro están los Amazon EC2 UltraServers, que combinan cientos de miles de GPUs Nvidia con la posibilidad de escalar a decenas de millones de CPUs para preparación de datos, orquestación e inferencia de alto volumen.
Qué gana OpenAI con AWS
La clave es la arquitectura: Nvidia GB200 y GB300 se co-localizan en la misma malla de red de alta velocidad para reducir la latencia entre nodos. 
En modelos que se reparten en muchos servidores, cada milisegundo cuenta: menos saltos de red significa más throughput y menor costo por token, tanto en entrenamiento como en producción. Este diseño permite mezclar entrenamientos, fine-tuning y tráfico de inferencia de alto QPS sin reempacar pipelines cada vez que llega hardware nuevo.
Por qué ahora y por qué AWS
El uso de ChatGPT es volátil y estacional: picos intensos, mesetas y nuevos picos. OpenAI necesita elasticidad, pero también previsibilidad en chips, energía y refrigeración. AWS presume experiencia operando clusters masivos y prácticas maduras de seguridad, aislamiento y resiliencia multi–zona. El compromiso plurianual le da a OpenAI capacidad reservada y economías de escala para planificar hojas de ruta, evaluaciones de seguridad y lanzamientos globales con menos riesgo de escasez.
Rendimiento, precio y una apuesta de arquitectura
Al ubicar GB200/GB300 en el mismo tejido de red, OpenAI puede acelerar ciclos de funciones, introducir mejoras graduales al ritmo de nuevas generaciones de silicio y mantener los caminos críticos cerca de memoria y almacenamiento. Con la red, el storage y la observabilidad de AWS, se estandarizan flujos sin sacrificar latencia para las cargas interactivas de ChatGPT.
Las dudas del público
Sí, incluso los hyperscalers sufren incidentes. Precisamente por eso importan el diseño multi–AZ, el failover automático y la diversidad regional: construir ese blindaje por cuenta propia es carísimo. Otra preocupación es que ChatGPT se siente “más frío” o más filtrado. Conviene separar temas: el tono y las reglas de contenido son decisiones de producto de OpenAI; la elección de nube afecta capacidad, costo y performance, no la política editorial.
Qué cambia para usuarios y para la industria
En el corto plazo, cabe esperar mayor estabilidad en horas pico, latencias más consistentes y despliegues más rápidos a medida que la capacidad entre en operación hasta 2026. Para el sector, el cheque de US$38.000 millones subraya lo intensivo en capital que es el estado del arte en IA y la ventaja de quien agregue chips, energía, refrigeración y red a escala planetaria. Si tras 2027 se amplía el acuerdo, será para acompañar el tamaño de los modelos, la base de usuarios y las exigencias de pruebas y seguridad.
En una línea: es una jugada de escala. Si AWS entrega lo prometido y OpenAI optimiza sus cargas para el tejido GB200/GB300, los usuarios notarán un ChatGPT más rápido, estable y disponible.
2 comentarios
¿No se cayó AWS hace nada? Ojalá el failover sea real y no solo slide 😂
Todas las nubes fallan. Lo que importa es cuánto tardan en levantarse. Diciembre dirá