El uso de la inteligencia artificial generativa ha experimentado un crecimiento notable del 890%, lo que ha llevado a que esta tecnología represente el 14% de los incidentes relacionados con fugas de datos, según el informe “2025 State of GenAI Report” de Palo Alto Networks. Este análisis se basa en el estudio del tráfico de aplicaciones de IA generativa y datos de seguridad de más de 7.000 organizaciones a nivel mundial, realizado durante 2024 y el primer trimestre de 2025.
El informe revela que las organizaciones actualmente utilizan una media de 6,6 aplicaciones de IA generativa de alto riesgo, muchas de las cuales operan sin supervisión y carecen de políticas claras. Esta falta de control ha contribuido a un aumento significativo en los riesgos de seguridad. En el primer trimestre de 2025, los incidentes de pérdida de datos relacionados con la IA generativa se incrementaron en 2,5 veces, alcanzando un 14% del total de incidentes reportados. Además, el número promedio de aplicaciones de IA generativa detectadas por cada organización ha crecido rápidamente, lo que indica una adopción descontrolada de estas herramientas.
Un fenómeno preocupante que ha surgido en este contexto es el de la “Shadow AI”, que se refiere al uso no autorizado de herramientas de IA por empleados sin la supervisión del departamento de tecnología de la información. Esta práctica no solo reduce la visibilidad de las operaciones, sino que también complica el cumplimiento de normativas y pone en riesgo la confidencialidad de la información empresarial. El informe señala que más del 70% de las aplicaciones de IA generativa analizadas pueden ser manipuladas a través de ataques de tipo jailbreak, capaces de generar contenido peligroso o inapropiado.
En cuanto a las interacciones con la IA generativa, el 83,8% proviene de plataformas de asistencia a la escritura, agentes conversacionales, buscadores corporativos y entornos de desarrollo. Entre estas herramientas, Grammarly destaca como la más utilizada en el ámbito de la escritura, mientras que Microsoft lidera la adopción empresarial con casi el 49% de las organizaciones utilizando sus soluciones como Microsoft Copilot. En el caso de España, las herramientas de IA generativa más populares son Microsoft 365 Copilot, Microsoft PowerApps y ChatGPT de OpenAI.
El informe también pone de manifiesto que el sector tecnológico y el industrial son los más activos en el uso de IA generativa, generando juntos el 39% de todas las actividades de codificación. Sin embargo, estas plataformas conllevan riesgos adicionales, como la ejecución de código malicioso y la posible fuga de propiedad intelectual, lo que podría dar lugar a problemas legales y éticos.
Frente a este panorama, Palo Alto Networks recomienda a las organizaciones adoptar un enfoque integral para la gobernanza de la inteligencia artificial. Este enfoque debe centrarse en la visibilidad, el control del uso y la seguridad avanzada en todos los niveles del entorno digital. Para ello, se sugieren tres líneas de actuación prioritarias: en primer lugar, establecer políticas de acceso condicional que definan el uso permitido de la IA generativa; en segundo lugar, implementar medidas de protección para los datos sensibles, incluyendo la inspección en tiempo real y políticas de seguridad centralizadas; y, finalmente, desarrollar arquitecturas de confianza cero que permitan detectar y bloquear amenazas sofisticadas basadas en IA.