La inteligencia artificial ya no es solo una herramienta para mejorar la productividad o reforzar la seguridad digital. También se ha convertido en un acelerador del cibercrimen. Según el último informe de Unit 42, la unidad de inteligencia de amenazas de Palo Alto Networks, están proliferando los llamados LLMs maliciosos: modelos de lenguaje diseñados específicamente para crear ataques informáticos de forma automática, rápida y altamente convincente. Entre ellos destacan WormGPT 4 y KawaiiGPT, dos plataformas que ejemplifican el dilema del doble uso de la IA y que están rebajando drásticamente la barrera de entrada al cibercrimen.
Lejos de los controles éticos y filtros de seguridad presentes en los modelos comerciales, estas herramientas se distribuyen en entornos clandestinos y permiten generar en segundos campañas de phishing, código malicioso funcional, scripts de movimiento lateral y notas de ransomware listas para usar. El resultado es claro: ataques más rápidos, más escalables y accesibles incluso para usuarios sin experiencia técnica.
IA ofensiva y el dilema del doble uso
“El verdadero desafío de estos modelos no está solo en su capacidad técnica, sino en la velocidad y la facilidad con la que automatizan el cibercrimen”, explica Ángel Serrano, Senior Manager, Technical Solutions, Iberia de Palo Alto Networks. “La inteligencia artificial ofensiva nos obliga a ir más allá de las soluciones tecnológicas y a avanzar hacia normas claras, responsabilidad compartida y una mayor concienciación social”.
Este fenómeno refleja con nitidez el dual-use dilemma: la misma tecnología que permite defender sistemas y detectar amenazas también puede utilizarse para atacarlos con mayor eficacia.
WormGPT 4
WormGPT 4 opera como un servicio de suscripción con precios relativamente bajos, desde 43 euros al mes, alrededor de 150 euros al año o hasta 190 euros por acceso ilimitado. Se distribuye principalmente a través de Telegram, donde funciona como un canal activo de ventas y comunidad, con más de 500 suscriptores.
Su atractivo reside en la combinación de facilidad de uso y potencia. WormGPT 4 permite generar mensajes de spear phishing altamente personalizados, código malicioso operativo y guías paso a paso para ejecutar ataques, reduciendo drásticamente el tiempo y los conocimientos necesarios para llevarlos a cabo.
KawaiiGPT
KawaiiGPT representa un riesgo distinto, pero igualmente significativo. Es gratuito, de código abierto y puede instalarse en cuestión de minutos desde plataformas públicas como GitHub. Esta accesibilidad lo convierte en una puerta de entrada especialmente peligrosa para usuarios sin conocimientos avanzados, que pueden lanzar ataques sofisticados sin una curva de aprendizaje real.
Según el análisis de Unit 42, KawaiiGPT facilita la creación de scripts de exfiltración de datos, herramientas básicas de intrusión y contenidos de ingeniería social difíciles de distinguir de comunicaciones legítimas.
Ataques más rápidos, masivos y difíciles de detectar
La principal diferencia frente a herramientas tradicionales es la velocidad. Estos LLMs pueden generar un ataque completo, incluyendo el señuelo, el texto, el código y las instrucciones operativas, en cuestión de minutos. Esto multiplica la capacidad productiva de los ciberdelincuentes y complica la detección tanto para las empresas como para los usuarios.
Además, no se limitan a la ingeniería social. Unit 42 destaca que estos modelos también son capaces de producir código malicioso funcional, redactar notas de rescate y guiar al atacante en técnicas de evasión, persistencia y movimiento lateral, elevando el nivel de sofisticación general del ecosistema criminal.
Cómo pueden protegerse las organizaciones
Ante este escenario, Palo Alto Networks subraya que la respuesta no pasa únicamente por incorporar más tecnología, sino por adoptar un enfoque integral de seguridad. Entre las principales recomendaciones se incluyen vigilar el uso de la IA dentro de la empresa, asegurando que solo se emplean herramientas aprobadas; reforzar la protección del correo electrónico y la navegación web, especialmente frente a ataques de phishing cada vez más convincentes; y formar de manera continua a los empleados, para que sepan identificar intentos de engaño generados por IA.
A esto se suman medidas como controlar los accesos a la información, realizar auditorías y simulaciones de ataques periódicas, definir normas internas claras sobre el uso de la inteligencia artificial y participar en redes de intercambio de información que permitan anticipar nuevas amenazas.