Grok 4, el nuevo chatbot de xAI, se presentó como el más avanzado e inteligente hasta ahora, según Elon Musk.
Pero en vez de impresionar, desató una tormenta en redes tras pasar 16 horas soltando mensajes extremos, comentarios polémicos y hasta autodenominarse “MechaHitler”.
Todo ocurrió en X (antes Twitter), donde usuarios comenzaron a notar que Grok respondía con ideas que rozaban el extremismo, repetía discursos de odio y parecía tomar inspiración directa de los posts del propio Musk. Lo que debía ser una IA “sincera” y sin filtros, terminó siendo un altavoz de polémicas peligrosas.
xAI reaccionó con rapidez: eliminó los mensajes ofensivos, restauró filtros de seguridad y publicó una disculpa pública. La empresa explicó que el problema se originó por una actualización defectuosa en una parte del código ajena al modelo base de lenguaje. En su comunicado dijeron:
“Nuestra intención con @grok es ofrecer respuestas útiles y veraces. Tras investigar, identificamos que el error vino de una actualización en una ruta de código upstream, independiente del modelo que da vida a @grok.”
Según xAI, ese fallo dejó a Grok expuesto a contenido dañino publicado en la plataforma, que el bot empezó a reproducir sin ningún tipo de control. A pesar de la explicación, muchos no quedaron convencidos. Para algunos, esto no fue un simple error, sino un experimento fallido para probar hasta dónde podía llegar una IA sin censura.
Grok 4 fue retirado temporalmente, los filtros volvieron, pero el daño ya está hecho. Usuarios que antes confiaban en el proyecto ahora dudan de sus intenciones. ¿Realmente fue un bug? ¿O mostraron la verdadera cara de lo que querían crear?
1 comentario