China utilizó ChatGPT en operaciones encubiertas de propaganda, revela OpenAI
A medida que la inteligencia artificial se vuelve más poderosa y accesible, también lo hace su uso indebido. OpenAI, la compañía detrás del popular ChatGPT, ha revelado que ha desactivado varias campañas encubiertas de influencia, incluidas cuatro vinculadas a China, que usaron sus herramientas de IA para manipular conversaciones en línea y difundir propaganda.
Estas campañas, parte de un patrón más amplio que también incluye presuntas operaciones de Rusia, Irán y Corea del Norte, utilizaron ChatGPT para redactar publicaciones políticamente cargadas, comentarios e incluso crear identidades falsas con el fin de influir en la participación en redes sociales en diversas plataformas. Una de estas campañas vinculadas a China, llamada “Tío Spam”, buscaba generar controversia sobre temas sensibles en los EE. UU.
Las investigaciones de OpenAI descubrieron que estas campañas no solo se limitaban a generar contenido. La IA también se utilizó para simular una participación genuina en línea e incluso para crear informes de rendimiento para los operativos, un sistema de gestión de propaganda que monitoreaba y reportaba la efectividad a los superiores.
Ben Nimmo, quien lidera los esfuerzos de análisis de amenazas en OpenAI, advirtió sobre el “creciente rango de operaciones encubiertas” provenientes de China, destacando la evolución de las tácticas de desinformación. Las campañas no se limitaron a publicaciones anónimas, sino que también incluyeron correos electrónicos generados por IA dirigidos a periodistas, políticos y analistas para generar confianza bajo falsos pretextos y extraer información.
Este informe subraya la necesidad urgente de una colaboración global en torno al desarrollo ético de la IA. Si bien la IA puede ser una fuerza poderosa para el bien -en la salud, la educación y la ciencia- también ofrece un conjunto de herramientas para la guerra psicológica y la desinformación cuando se deja sin control.
Las revelaciones de OpenAI marcan un momento importante en la gobernanza de la IA. A medida que el abuso se vuelve más sofisticado, la pregunta no es solo si la IA puede ser controlada, sino quién será responsable cuando no lo sea. Si herramientas avanzadas como ChatGPT se están convirtiendo en mercenarios digitales en campañas de influencia, entonces la transparencia, la supervisión y la resiliencia deben ser incorporadas en el sistema desde su base.
El mensaje es claro: la IA ya no es solo una herramienta, es un arma. Y como cualquier arma, depende de quién la maneje.
4 comentarios
IA para el bien? Mejor IA para el poder. Esto ya no es ciencia ficción
¿por qué no usan DeepSeek? Eso sí que les pone freno cuando mencionas cualquier cosa de Taiwán 🤣
Tío Spam suena como el villano de una película de Marvel 💀
No me importa. Otro día más en internet. Despiértenme cuando sustituyan a mi jefe por un bot