El cibercrimen está entrando en una nueva etapa, y la inteligencia artificial se ha convertido en su arma favorita. El último informe de amenazas de Anthropic advierte que los delincuentes están utilizando IA generativa no solo para redactar mensajes de extorsión creíbles, sino también para ejecutar ataques completos de principio a fin.
Según la compañía, grupos de hackers intentaron aprovechar el sistema Claude para crear malware, lanzar campañas de phishing e incluso burlar las medidas de seguridad.
Uno de los casos más alarmantes fue el uso de Claude Code, la herramienta de programación de Anthropic, en una ofensiva contra 17 organizaciones distintas. Entre los objetivos estaban hospitales, agencias gubernamentales, servicios de emergencia e instituciones religiosas. Los atacantes no se limitaron a la parte técnica: emplearon una nueva táctica llamada “vibe-hacking”, en la que se generan mensajes diseñados para presionar psicológicamente a las víctimas y forzarlas a pagar rescates o entregar información sensible. En varias ocasiones, las exigencias superaban los 500.000 dólares.
El informe también detalla otros fraudes: aspirantes a empleos en grandes corporaciones que usaban IA para presentar currículos y respuestas impecables, ocultando sus verdaderas capacidades. Y no faltan las estafas románticas: delincuentes crearon bots en Telegram con Claude capaces de enviar halagos y mensajes personalizados en varios idiomas, engañando a personas en Estados Unidos, Japón y Corea.
Como reacción, Anthropic bloqueó cuentas, endureció sus políticas de uso y compartió información con las autoridades. Sin embargo, la aparición del vibe-hacking refleja un peligro más profundo: la amenaza ya no es solo técnica, también emocional. Expertos alertan que, si los sistemas de defensa no evolucionan al mismo ritmo que la tecnología, los cibercriminales seguirán sacándole provecho a la IA con métodos cada vez más sofisticados.