Cuando Dan Houser habla de inteligencia artificial, no suena como el típico gurú de Silicon Valley vendiendo la próxima revolución. El cofundador de Rockstar Games y antiguo guionista de Grand Theft Auto recurre a una imagen mucho más incómoda: la crisis de las vacas locas. 
En los 90, la industria decidió alimentar vacas con restos de otras vacas y terminó generando una enfermedad que contaminó todo el sistema. Para Houser, algo parecido está ocurriendo ahora con la IA: trituramos la cultura que hay en internet, la usamos como pienso para los modelos y luego devolvemos esa pasta sintética al mismo ecosistema, una y otra vez.
No lo dice cualquier comentarista al margen de la industria. Houser ayudó a definir el tono, el cinismo y el humor de franquicias como GTA y Red Dead Redemption. Tras abandonar Rockstar en 2020, fundó Absurd Ventures, centrada en nuevas historias y universos propios. Su novela más reciente, A Better Paradise, gira precisamente en torno a IA y mundos virtuales, así que era cuestión de tiempo que le preguntaran por el tema en una entrevista con Virgin Radio UK. Y su respuesta está muy lejos del entusiasmo acrítico que se escucha en presentaciones de producto y keynotes de grandes tecnológicas.
En apenas unos años, la IA ha pasado de curiosidad para entusiastas a motor de una enorme burbuja económica. Modelos de lenguaje escriben emails, informes y código; generadores de imagen producen logos, concept art y pósters en segundos. Todo el mundo parece querer su etiqueta «con IA» en la portada. Pero el precio de esta fiebre es una redefinición silenciosa de cómo funciona la red. Las grandes modelos se entrenan absorbiendo textos, imágenes, música, vídeos y repositorios de código creados por personas reales. Las compañías lo venden como uso legítimo y natural de la web. Artistas, medios y estudios lo perciben más bien como un gigantesco aspirador de contenido que chupa su trabajo sin pedir permiso, sin atribución y sin pagar.
El choque ya ha acabado en los tribunales. Disney y Universal han demandado al generador de imágenes Midjourney, acusando a la empresa de basar su negocio en reinterpretaciones de personajes y estilos visuales sacados de sus películas. Disney también envió una carta de cese y desista a Character.AI, advirtiendo al startup que deje de usar personajes protegidos por copyright. Detrás de estos casos concretos está una pregunta mucho más amplia: quién se queda con el valor cuando una máquina aprende a partir de tu obra y luego genera algo nuevo que se parece sospechosamente a ella.
Para Houser, el problema no es solo técnico sino humano. Le inquieta el tipo de gente que hoy se arroga el derecho de «diseñar el futuro de la humanidad» a través de la IA. Según él, muchos de los que hablan de optimizar creatividad y sociedad mediante algoritmos no destacan precisamente por su empatía ni por su sensibilidad artística. Actúan como si entendieran mejor que nadie qué significa ser humano. El discurso recuerda a viejos excesos tecnológicos: en los 90 hubo quien aseguró que, con el CD-ROM, los discos duros dejarían de ser importantes. Ahora el hype es mayor, la apuesta mucho más alta y el objeto de deseo ya no es el hardware, sino el control del lenguaje, de las imágenes y de la atención.
Su metáfora de la vaca loca cobra todo el sentido cuando se asoma al siguiente paso: modelos entrenados sobre el propio residuo que ellos mismos generan. Hoy, los grandes modelos de lenguaje rastrean un internet en el que aún domina el contenido humano. Pero cada semana aumenta la proporción de textos, imágenes y comentarios producidos por IA que se publican sin etiquetar como tales. Si esa masa acaba siendo la materia prima de la próxima generación de modelos, estos aprenderán cada vez más de versiones degradadas de sí mismos. Investigadores ya hablan de colapso de modelo: un ciclo en el que errores, sesgos y lugares comunes se amplifican, mientras la apariencia de seguridad crece. Houser lo resume con una imagen sencilla: si alimentas vacas con vacas, no consigues mejores animales, sino una enfermedad.
Quien use habitualmente chatbots reconoce la escena. Haces la misma pregunta dos veces y obtienes respuestas distintas. A veces la IA acierta de lleno; otras veces inventa datos, mezcla fechas, pone ciudades en países equivocados o cita estudios que no existen, todo con un tono de certeza absoluta. Para tareas triviales, esto se queda en anécdota. Pero cuando hablamos de salud, ley, política o reputaciones, una mentira pronunciada con voz segura deja de ser chiste. En el terreno creativo, el problema es otro: muchas obras generadas por IA se sienten como una media tibia de todo lo que ya hemos visto, un batido de clichés. Diálogos que parecen sacados de malas series, ilustraciones sin alma, textos que podrían estar en cualquier folleto corporativo.
La industria del entretenimiento, sin embargo, no está esperando a que se resuelvan las dudas éticas. Estudios de cine y de videojuegos experimentan ya con storyboards generados por IA, concept art automatizado, voces sintéticas para maquetas de doblaje, asistentes que rellenan diálogos de NPCs o generan variaciones de misiones. El discurso oficial es que todo esto es solo para ganar tiempo y reducir costes, sin sustituir a nadie. Pero los mensajes públicos van en otra dirección. El CEO de Genvid, compañía detrás de experiencias interactivas como Silent Hill Ascension, llegó a decir que los consumidores en general no se preocupan por el uso de IA en los juegos y que la Generación Z «ama la bazofia de IA». En la práctica, la reacción suele ser menos complaciente: cuando la comunidad de Fortnite sospechó que cierto arte promocional era obra de una IA, las críticas por la estética genérica y la pereza creativa no tardaron en inundar las redes.
Por eso llama tanto la atención otra frase de Houser: habla de «un grupo de personas que quizá no sean humanos del todo completos» y que, aun así, manejan el timón. No menciona nombres, pero muchos piensan automáticamente en directivos y multimillonarios que marcan la agenda tech, de Sam Altman a Mark Zuckerberg o Elon Musk. Son figuras que viven rodeadas de paneles de datos, presentaciones a inversores y gráficos de crecimiento, y que rara vez tienen que lidiar con las consecuencias sociales de las decisiones que toman. La historia ofrece un paralelismo fácil: el mito de Nerón tocando la lira mientras Roma ardía. Hoy la lira se ha transformado en dashboards llenos de KPIs, y la ciudad que se quema es el tejido cultural y laboral sobre el que se sostiene el resto.
Bajo todos estos debates abstractos late un miedo muy concreto: el miedo a quedarse sin trabajo. La primera oleada golpea a quienes viven del teclado: redactores, traductoras, periodistas, community managers, programadores, personal de soporte, gente de oficina en general. No es difícil imaginar un 2030 en el que buena parte de estas tareas esté parcialmente automatizada o concentrada en menos manos gracias a la IA. Quienes trabajan con herramientas físicas, en talleres, almacenes o cadenas de montaje, pueden sentir que esto no va con ellos aún, pero la robótica y la automatización industrial avanzan lo bastante rápido como para convertir esa sensación en simple tregua. Y en el horizonte aparece, como fantasma, la idea de la AGI: una inteligencia artificial general que pueda mejorarse sola y producir sus propios datos. Si algo así llegara a existir, el impacto sobre el empleo podría ser más brusco que el de la Revolución Industrial, pero comprimido en unos pocos años.
Al mismo tiempo, incluso los críticos más duros reconocen que demonizar la herramienta no tiene mucho sentido. Existe una visión más pragmática de la IA como apoyo y no como sustituto. Bien usada, puede resumir documentos interminables, ayudar a ordenar ideas, generar borradores que luego se pulen a mano, proponer variantes de misiones o de diálogos que sirvan como base. En desarrollo de juegos, por ejemplo, puede producir textos provisionales para que diseñadores prueben niveles sin tener que esperar a que el guion final esté cerrado. El problema empieza cuando la dirección creativa decide que ese borrador es suficiente, lo convierte en producto final y, de paso, recorta equipos humanos.
En el mundo de los videojuegos, la tentación de confiar demasiado en la IA es especialmente fuerte porque la promesa es seductora. Imagina una ciudad abierta donde cada NPC pueda conversar contigo en lenguaje natural, recordar lo que hiciste, adaptarse a tu estilo de juego y generar misiones sobre la marcha. Es el tipo de discurso que brilla en una presentación de inversión. Pero sin una visión humana clara, el resultado puede ser un océano de diálogo genérico, infinito y olvidable. Muchos fans ya fantasean con una misión de un futuro GTA en la que infiltrarse en una start-up de IA para descubrir, entre powerpoints huecos y modelos que sueltan barbaridades con absoluta confianza, que la sátira escrita por guionistas de carne y hueso sigue siendo mucho más viva que las máquinas que pretende ridiculizar.
En el fondo, la advertencia de Houser no es un «apaguen todo y vuelvan a la máquina de escribir», sino un llamamiento a la responsabilidad. La IA no va a desaparecer; igual que las máquinas de la revolución industrial, ya forma parte de la infraestructura económica. Lo que sí podemos decidir es cómo se usa, quién controla los datos, qué se considera un entrenamiento legítimo y cómo se reparten los beneficios. Eso implica debatir en serio sobre consentimiento, derechos de autor, transparencia y límites éticos. Si seguimos tratando la cultura como un recurso barato para alimentar modelos sin control, el paralelismo con la vaca loca dejará de ser una metáfora ingeniosa y se parecerá cada vez más a un diagnóstico. El reto es que la IA siga siendo una herramienta poderosa pero acotada en manos humanas, y no el mecanismo que, poco a poco, vacía de valor la misma humanidad de la que aprendió todo.
1 comentario
La comparación con la vaca loca es rarísima, pero cuanto más la pienso más sentido tiene jajaja 😂