El nuevo estándar ETSI EN 304 223 establece requisitos básicos de ciberseguridad para modelos y sistemas de IA, abordando amenazas específicas como el envenenamiento de datos o la manipulación de modelos en entornos reales.
La adopción de la inteligencia artificial se ha convertido en una prioridad transversal para empresas, operadores de telecomunicaciones y administraciones públicas. Sin embargo, el avance de estas tecnologías ha venido acompañado de crecientes preocupaciones en materia de ciberseguridad.
En este contexto, el Instituto Europeo de Normas de Telecomunicaciones (ETSI) ha anunciado la publicación de ETSI EN 304 223, el primer estándar europeo con alcance global que define requisitos básicos de ciberseguridad para modelos y sistemas de inteligencia artificial.
Este nuevo estándar supone un paso relevante en la consolidación de un marco común que permita proteger los sistemas de IA frente a amenazas cada vez más sofisticadas. Según ETSI, la norma proporciona una base clara y estructurada para reforzar la seguridad a lo largo de toda la cadena de valor de la IA, desde los desarrolladores y proveedores tecnológicos hasta los integradores y operadores que despliegan estas soluciones en entornos reales.
Un marco específico para riesgos propios de la IA
ETSI subraya que la inteligencia artificial plantea desafíos de ciberseguridad diferentes a los del software tradicional. A los riesgos clásicos se suman nuevas amenazas como el envenenamiento de datos, la ofuscación de modelos, las inyecciones indirectas de prompts o las vulnerabilidades derivadas de prácticas complejas de gestión de datos y operaciones. El estándar ETSI EN 304 223 responde a este escenario combinando buenas prácticas consolidadas de ciberseguridad con medidas diseñadas específicamente para sistemas de IA.
El alcance de la norma cubre sistemas que incorporan redes neuronales profundas, incluida la IA generativa, y está orientado a aplicaciones destinadas a su despliegue en el mundo real.
Uno de los elementos centrales del nuevo estándar es su enfoque integral del ciclo de vida de la IA. ETSI EN 304 223 define 13 principios y requisitos distribuidos en cinco fases: diseño seguro, desarrollo seguro, despliegue seguro, mantenimiento seguro y fin de vida seguro. Cada una de estas etapas se alinea con modelos internacionales de ciclo de vida de la IA, lo que facilita la interoperabilidad con otros marcos normativos y guías existentes.
Además, el estándar incluye referencias a normas y publicaciones relevantes al inicio de cada principio, con el objetivo de facilitar su implementación práctica y su armonización dentro del ecosistema global de la inteligencia artificial.
Un estándar con respaldo internacional
La norma ETSI EN 304 223 ha sido revisada y aprobada formalmente por organismos nacionales de normalización, lo que amplía su alcance internacional y refuerza su autoridad en los mercados globales. Desde ETSI destacan que este respaldo institucional convierte al estándar en una referencia sólida para organizaciones que buscan desplegar sistemas de IA seguros y confiables en distintos países y sectores.
“El estándar representa un paso importante para establecer una base común y rigurosa en la seguridad de los sistemas de inteligencia artificial”, señala Scott Cadzow, presidente del Comité Técnico de ETSI para la Seguridad de la IA. Según Cadzow, en un momento en el que la IA se integra de forma creciente en servicios e infraestructuras críticas, disponer de directrices claras y prácticas resulta fundamental para generar confianza en estas tecnologías.
Asimismo, la organización ha avanzado que un próximo informe técnico, ETSI TR 104 159, aplicará estos principios de forma específica a la IA generativa, abordando aspectos como deepfakes, desinformación, riesgos de confidencialidad y cuestiones relacionadas con derechos de autor.