NVIDIA y OpenAI acaban de lanzar la nueva familia de modelos gpt-oss, diseñada para funcionar directamente en PCs con GPUs RTX. 
Sí, ahora puedes correr IA de altísimo nivel en tu propia máquina, sin depender de la nube ni de servidores externos.
Hay dos versiones disponibles: gpt-oss-20b, que corre como un rayo en PCs RTX con mínimo 16 GB de VRAM, y gpt-oss-120b, pensada para estaciones de trabajo con GPUs RTX PRO. El modelo 20b puede generar hasta 250 tokens por segundo en una RTX 5090 – más rápido de lo que puedes leer.
Ambos modelos fueron entrenados en GPUs H100 de NVIDIA y aprovechan la nueva precisión MXFP4, que mejora la calidad sin afectar el rendimiento. Además, soportan contextos de hasta 131.072 tokens, ideal para tareas complejas de lenguaje.
Todo está basado en arquitectura Mixture of Experts (MoE), que permite razonamiento paso a paso, ejecución de instrucciones y uso de herramientas externas.
¿Quieres probarlos ya? Aquí van las opciones:
- Ollama App: interfaz súper fácil, lista para usar con RTX.
- Llama.cpp: NVIDIA colabora con la comunidad open source para mejorar el rendimiento con CUDA Graphs.
- Microsoft AI Foundry: en Windows solo hace falta un comando en terminal para lanzar el modelo.
Jensen Huang, CEO de NVIDIA, lo resumió así: “gpt-oss permite a los desarrolladores crear con IA avanzada directamente desde sus dispositivos, usando la infraestructura de cómputo más grande del mundo”.
Algunos critican que las RTX 5000 siguen con 5nm en pleno 2025, pero cuando ves lo que puede hacer gpt-oss de forma local, esas quejas se sienten vacías. Esto es IA sin límites.
1 comentario
No más suscripciones ni APIs carísimas, ahora todo local 🧠