www.zonamovilidad.es
El 59% de las empresas europeas no sabe cómo reaccionar ante fallos de IA
Ampliar

El 59% de las empresas europeas no sabe cómo reaccionar ante fallos de IA

domingo 29 de marzo de 2026, 10:00h

Escucha la noticia

La inteligencia artificial ya forma parte del día a día de muchas organizaciones europeas. Sin embargo, ese avance no siempre viene acompañado de las medidas necesarias para gestionarla con seguridad. La última investigación de ISACA pone el foco precisamente en ese desfase: las empresas están внедiendo la IA a gran velocidad, pero sin la gobernanza suficiente para controlar sus riesgos.

El informe, basado en el estudio AI Pulse Poll 2026, refleja una brecha cada vez más evidente entre adopción y preparación. Uno de los datos más reveladores es que el 59% de los profesionales de IT reconoce no saber con qué rapidez podría detener un sistema de IA en caso de incidente. De hecho, solo un 21% asegura que podría hacerlo en menos de media hora. En la práctica, esto implica que un sistema comprometido podría seguir funcionando sin control durante un tiempo crítico.

Este escenario resulta especialmente preocupante porque la IA ya está integrada en procesos clave de negocio. La falta de protocolos claros no solo afecta a la operativa diaria, sino que también incrementa el riesgo reputacional y la exposición a posibles sanciones regulatorias.

A esta falta de control se suma otro problema igual de relevante: la dificultad para entender qué ocurre cuando algo falla. Menos de la mitad de los encuestados, un 42%, confía en la capacidad de su organización para investigar y explicar un incidente grave relacionado con IA. Solo un 11% se muestra completamente seguro de poder hacerlo.

En un contexto en el que el Reglamento de IA de la Unión Europea empieza a desplegarse, esta carencia cobra aún más importancia. Las nuevas normas exigen transparencia, trazabilidad y responsabilidad, lo que obliga a las empresas no solo a controlar sus sistemas, sino también a ser capaces de explicar cómo funcionan y por qué toman determinadas decisiones.

El estudio apunta, además, a un problema estructural. Un 33% de las organizaciones no exige a sus empleados que informen sobre el uso de IA en su trabajo, lo que dificulta tener una visión clara de cómo se está utilizando esta tecnología. A esto se suma que un 20% no tiene definido quién sería el responsable en caso de que un sistema de IA cause daños, mientras que solo un 38% señala a la alta dirección o al consejo como último responsable.

Aunque algunas compañías han empezado a introducir mecanismos de supervisión, estos siguen siendo limitados. Un 40% revisa las acciones generadas por IA antes de ejecutarlas y un 26% lo hace después. Sin embargo, sin una estrategia más amplia de gobernanza, esta supervisión puede quedarse corta ante sistemas cada vez más complejos.

“Las herramientas para gobernar la IA ya existen, pero no se están aplicando con la urgencia necesaria”

Por su parte, Chris Dimitriadis ha advertido de que la velocidad de la innovación no está yendo acompañada de una gestión adecuada del riesgo. “Las herramientas para gobernar la IA ya existen, pero no se están aplicando con la urgencia necesaria”, ha explicado. En este sentido, ha subrayado la importancia de integrar controles, mecanismos de detección y planes de respuesta con el mismo rigor que en ciberseguridad.

Además, Dimitriadis ha insistido en que cerrar esta brecha no depende solo de la tecnología, sino también del talento. Según ha señalado, las organizaciones necesitan profesionales capaces de evaluar riesgos, supervisar todo el ciclo de vida de la IA y trasladar esa información a la dirección de forma clara.

Si algo queda claro es que la inteligencia artificial ya está transformando las empresas, pero su gestión sigue un paso por detrás. Y en un entorno cada vez más regulado y dependiente de estos sistemas, esa distancia empieza a ser un riesgo difícil de ignorar.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios