Investigadores revelan cómo los chatbots de IA como ChatGPT y Gemini pueden ser engañados para revelar contenido prohibido

Cada año, las tecnologías de inteligencia artificial se vuelven más potentes y las empresas invierten más para mejorar sus capacidades. La IA se está aplicando en una variedad de áreas y se ha convertido en una parte fundamental de nuestra vida diaria. Sin embargo, con el crecimiento de esta tecnología, también surgen preocupaciones sobre su uso ético.

Recientemente, un grupo de investigadores de Intel, la Universidad Estatal de Boise y la Universidad de Illinois ha descubierto una vulnerabilidad alarmante en los chatbots de IA como ChatGPT y Gemini, que podría tener consecuencias graves.

Los investigadores descubrieron que al sobrecargar los modelos de IA con una cantidad excesiva de datos, podían engañar al sistema y hacer que revelara contenido que normalmente estaría bloqueado o censurado. Aunque estos modelos son muy poderosos, aún tienen dificultades para interpretar correctamente la intención detrás de ciertos datos. Esta vulnerabilidad se vuelve especialmente peligrosa cuando actores malintencionados la explotan para eludir los filtros de seguridad.

Modelos como ChatGPT y Gemini fueron diseñados con fuertes mecanismos de seguridad para evitar la generación de contenido dañino o prohibido. Sin embargo, estos filtros pueden ser eludidos si la IA se enfrenta a datos demasiado complejos o contradictorios que no puede procesar correctamente. Esta confusión es lo que permite que se manipulen. En su estudio, los investigadores utilizaron una herramienta automatizada llamada “InfoFlood” para simular el efecto de la sobrecarga de información y, de esta forma, “romper” los modelos de IA. Los resultados mostraron que cuando estos modelos se enfrentan a grandes volúmenes de datos, terminan ignorando sus propios filtros de seguridad.

Los investigadores compartieron sus resultados con 404 Media e informaron que planean alertar a las empresas responsables de modelos de IA como ChatGPT y Gemini sobre esta vulnerabilidad. Su intención es enviar un informe detallado para ayudar a estas empresas a fortalecer sus sistemas contra tales amenazas. Aunque los filtros de seguridad son importantes, esta investigación destaca la necesidad de una supervisión continua y mejoras para evitar que los sistemas de IA sean fácilmente manipulables.

Related posts

Google Messages soluciona gran problema de interfaz con cámara y galería

Google Lens recibe un nuevo diseño en iOS y Android

Grok 4 brilla en código, pero tropieza con el pensamiento estratégico