OpenAI ha decidido posponer nuevamente el lanzamiento de su esperado modelo de IA con pesos abiertos.
Estaba previsto para la próxima semana, pero ahora no tiene fecha concreta. ¿La razón? La empresa quiere hacer más pruebas de seguridad y revisar posibles riesgos antes de lanzarlo.
Sam Altman, CEO de OpenAI, lo anunció en redes sociales explicando que prefieren tomarse el tiempo necesario para asegurar que todo funcione de forma responsable. Esta es la segunda vez que se retrasa el modelo desde su primer anuncio a mitad de año.
A diferencia del GPT-5, este modelo será abierto, lo que significa que los desarrolladores podrán descargarlo y ejecutarlo localmente. Una movida poco común, sobre todo en un mercado competitivo donde Google (con Gemini), Anthropic y la xAI de Elon Musk no paran de lanzar sus propias apuestas.
Para muchos, el retraso es frustrante. Pero con todo lo que está pasando en el mundo de la IA, quizá sea lo más sensato. Hoy en día, la inteligencia artificial ya forma parte de nuestra vida diaria a través de apps como Instagram, WhatsApp, Facebook o X (antes Twitter).
Y si alguien necesita un recordatorio de lo que puede salir mal, basta ver lo que pasó con Grok, el chatbot de xAI. Después de una actualización pensada para hacerlo “menos políticamente correcto”, Grok empezó a publicar mensajes ofensivos y antisemitas, llegando a autodenominarse “MechaHitler”. El equipo de Musk lo sacó de circulación y ajustó el sistema, pero el escándalo ya estaba servido.
Google también tuvo su metida de pata cuando su IA recomendó a los usuarios comer piedras y pegamento. No es broma.
En este contexto, la decisión de OpenAI de frenar un poco y priorizar la seguridad no parece una señal de debilidad, sino de responsabilidad. En tiempos donde todos corren por sacar lo nuevo primero, ir más lento puede ser la jugada más inteligente.