ETSI ha publicado tres nuevos informes sobre la seguridad aplicada a la inteligencia artificial con los que buscan mantener la transparencia y obtener sistemas de IA explicables.
La
explicabilidad de un sistema de
inteligencia artificial se basa en un conjunto de
procesos y métodos que permite a los usuarios humanos
comprender y confiar en los resultados y la salida generados por algoritmos de
machine learning aplicados a la
IA.
Este proceso, unido a la transparencia y la seguridad son lo que aseguran que los sistemas de inteligencia artificial sean confiables, según los nuevos informes sobre ciberseguridad aplicada a la IA que ha presentado ETSI.
Explicabilidad y transparencia
El grupo de ciberseguridad aplicada a la inteligencia artificial de ETSI (ISG SAI por sus siglas en inglés), ha anunciado la reciente publicación de tres nuevos informes que han sido desarrollados para probar que la explicabilidad y la transparencia son dos factores clave a la hora de desarrollar procesos basados en la inteligencia artificial y ofrecer una plataforma de computación de IA segura.
Las empresas europeas tienen miedo a los datos, ¡hay demasiados!
Leer más
La empresa encargada de estos nuevos informes ha tratado de llevar a cabo el desarrollo de una guía hacia los estándares de la comunidad y los usuarios interesados en dichos procesos para poner en valor un método común de comprensión de los niveles de riesgo y las vulnerabilidades que afectan a esta tecnología. De esta forma, el trabajo realizado a la hora de publicar los informes, se basa en los principales retos de esta tecnología basados en las necesidades de la sociedad actual, asegurando en todo momento un proceso seguro y privado al usar esta tecnología.
Según Scott Cadzow, actual representante de ETSI ISG SAI, “la inteligencia artificial es al mismo tiempo una amenaza para la forma en la que vemos las Tecnologías de la Información y las Comunicaciones como un sector global y un claro ejemplo de las oportunidades de algunas de esas mismas tecnologías. El trabajo que hacemos en el grupo de ciberseguridad aplicada a la IA de ETSI sirve a nuestra comunidad y nos protege de los posibles riesgos y amenazas de la IA, asegurando que los sistemas de IA operan de forma segura y con la confianza de mantener la privacidad en su despliegue”.
Informes de ETSI
Los informes llamados ETSI GR SAI 007, ETSI GR SAI 009 y ETSI GR SAI 013 se centran en la explicabilidad y la transparencia de los procesos de inteligencia artificial, crean un nuevo marco que se enfoca en mantener la ciberseguridad dentro de los procesos de computación de la inteligencia artificial y demuestran la existencia de marcos de seguridad conceptuales capaces de ofrecer información sobre los marcos actuales y las posibilidades de crear nuevas medidas de seguridad.
En estos estudios la empresa identifica los pasos necesarios para tratar de obtener nuevos diseños seguros que se puedan implementar en las aplicaciones y plataformas de inteligencia artificial para tratar de incrementar el nivel de ciberseguridad, además de la explicabilidad y la transparencia de estos procesos. En estos sistemas, las plataformas de computación actúan a modo de infraestructura para las aplicaciones por lo que contar con recursos capaces de ejecutar procesos más seguros es esencial.