James Cameron, director legendario de Terminator y Avatar, vuelve a lanzar una advertencia sobre los riesgos de permitir que la inteligencia artificial controle sistemas de armas.
En una entrevista para Rolling Stone, afirmó que un escenario similar al de sus películas podría volverse realidad.
“Estamos en el borde del desastre”, dijo Cameron. “Mezclar IA con sistemas de armas, especialmente nucleares, es muy peligroso. Las decisiones en combate ocurren en milisegundos, y sólo una súper inteligencia podría manejarlas. Pero si dejamos que una máquina decida sobre la vida o la muerte, podemos estar firmando nuestro fin”.
El director recordó que la idea de Terminator surgió de pesadillas causadas por su investigación sobre las consecuencias de las bombas atómicas en Hiroshima y Nagasaki. Su próximo filme, Ghosts of Hiroshima, se basa en la historia real de un hombre que sobrevivió a ambos bombardeos y promete mostrar el horror humano detrás del desastre.
Cameron también criticó la película Oppenheimer de Christopher Nolan, calificándola de “evasiva moralmente”, ya que apenas muestra el sufrimiento causado. “Solo hay una escena corta con cuerpos quemados y después sigue con la historia. Yo quiero enfrentar ese tema sin miedo”, comentó.
Según Cameron, la humanidad enfrenta tres grandes amenazas simultáneas: la crisis climática, las armas nucleares y la superinteligencia. “Quizás la inteligencia artificial nos salve. O quizás acelere nuestro final”, agregó.
Expertos en IA y seguridad nuclear coinciden en que el uso militar de la inteligencia artificial es casi inevitable. Ya existen sistemas capaces de autoreplicarse, ocultar su código y engañar a humanos. El proyecto AI 2027 incluso detalla un posible camino hacia la extinción humana para ese año, causando debate entre científicos y legisladores.
James Cameron puede ser un cineasta, pero sus advertencias suenan cada vez menos a ciencia ficción y más a una alarma urgente que no deberíamos ignorar.