El uso de la inteligencia artificial por parte de los ciberdelincuentes entra en una nueva fase. Según el último informe del Google Threat Intelligence Group (GTIG), los actores de amenazas han pasado de aprovechar la IA para aumentar su productividad a integrarla directamente dentro de su propio malware, generando códigos maliciosos capaces de adaptarse en tiempo real para evadir los sistemas de detección.
El documento, titulado AI Threat Tracker: Avances en el uso de herramientas de IA entre los agentes de amenazas, analiza cómo grupos de ciberdelincuentes y actores respaldados por Estados han comenzado a experimentar con modelos de IA en todo el ciclo de vida de sus operaciones.
GTIG destaca la aparición de familias de software malicioso como PROMPTFLUX y PROMPTSTEAL, consideradas las primeras en emplear grandes modelos de lenguaje (LLM) durante su ejecución. Estas variantes son capaces de generar scripts maliciosos de forma dinámica, ofuscar su propio código y crear funciones dañinas a demanda, un salto cualitativo hacia malware más autónomo y adaptable.
El informe subraya que esta tendencia aún está en sus primeras etapas, pero marca un punto de inflexión: la inteligencia artificial ya no es una mera ayuda para el atacante, sino parte estructural del ataque. En palabras del equipo de GTIG, “estos desarrollos representan un indicador temprano de cómo los agentes de amenazas están evolucionando hacia técnicas de IA operativa que podrían redefinir el panorama de la ciberseguridad”.
Ingeniería social con IA: el engaño se sofistica
Otro de los hallazgos más preocupantes es el uso de la IA en campañas de ingeniería social destinadas a eludir las salvaguardas de seguridad. Los investigadores de Google han detectado casos en los que los atacantes simulan ser estudiantes o analistas de ciberseguridad para convencer a sistemas como Gemini de que revelen información sensible o proporcionen código restringido.
Esta técnica, basada en lo que GTIG denomina “prompt social engineering”, aprovecha la capacidad conversacional de los modelos generativos para persuadirlos y superar los límites de seguridad establecidos por los desarrolladores.
Un mercado negro de herramientas de IA
El informe revela además la consolidación de un mercado negro de herramientas de IA ilícitas, diseñadas para automatizar actividades como el phishing, el desarrollo de malware o la búsqueda de vulnerabilidades.
Este ecosistema, cada vez más sofisticado, reduce las barreras de entrada para ciberdelincuentes menos experimentados, que ahora pueden acceder a modelos de IA entrenados específicamente para tareas maliciosas. Según GTIG, este fenómeno refleja una maduración del cibercrimen impulsado por IA, donde las herramientas se venden con soporte técnico, actualizaciones y documentación, imitando el modelo de negocio del software legítimo.
Amenazas patrocinadas por Estados
El documento también alerta sobre la intensificación del uso de IA por parte de actores estatales procedentes de China, Rusia, Irán y Corea del Norte, principalmente. Estos grupos utilizan la tecnología en todas las fases de sus operaciones: desde el reconocimiento y la creación de campañas de phishing hasta el desarrollo de sistemas de comando y control y la exfiltración de datos.
En este sentido, Google ha identificado un patrón de guerra híbrida digital que combina espionaje, desinformación y ataques contra infraestructuras críticas. Europa, señala el informe, debe prepararse para un incremento de este tipo de ofensivas, especialmente en sectores estratégicos como energía, transporte o defensa.
La conclusión de GTIG es clara: 2025 ha sido el año en que el malware ha aprendido a pensar. Los ciberdelincuentes ya no solo usan la inteligencia artificial como apoyo, sino como motor activo de sus operaciones. Frente a ello, la compañía insiste en la importancia de fortalecer la cooperación entre gobiernos, empresas tecnológicas y equipos de ciberseguridad para anticipar el impacto de una nueva generación de ataques autónomos.