CoreWeave dejó claro el salto que trae el nuevo NVIDIA GB300 NVL72 con arquitectura Blackwell, y las cifras hablan solas. En las pruebas con el modelo de razonamiento DeepSeek R1, el GB300 entregó 6 veces más rendimiento por GPU en comparación con la generación H100.
Lo más llamativo: lo que antes necesitaba 16 H100, ahora corre con solo 4 GB300.
La clave está en el diseño. Al reducir el paralelismo tensorial de 16 a 4, el GB300 recorta de manera drástica la carga de comunicación entre GPUs. Junto con su enorme capacidad de memoria y un ancho de banda brutal, el chip maneja modelos complejos con fluidez. Gracias a NVLink y NVSwitch, la interconexión alcanza hasta 130 TB/s, mientras que el sistema NVL72 ofrece 37 TB de memoria, ampliables a 40 TB.
Para las empresas, esto significa tokens generados más rápido, menos latencia y costos reducidos con una escalabilidad mucho más eficiente. La demo de CoreWeave lo confirma: el GB300 no es solo potencia bruta en TFLOPs, es una solución más elegante, práctica y económica para cargas pesadas de IA. Los clústeres H100 todavía tienen su espacio, pero la generación Blackwell con el GB300 marca un antes y un después en entrenamiento e inferencia de modelos.