www.zonamovilidad.es
Por María García
x
infozonamovilidades/4/4/18
lunes 27 de noviembre de 2023, 10:00h

Escucha la noticia

En un paso significativo hacia el establecimiento de pautas internacionales para la seguridad de la inteligencia artificial (IA), Estados Unidos, Reino Unido y más de una docena de países han acordado una serie de directrices para mantener segura la inteligencia artificial frente a actores malintencionados, abogando por que las empresas creen sistemas de IA "seguros por diseño".

El documento, de 20 páginas y presentado el domingo por la Centro Nacional de Ciberseguridad de Reino Unido, refleja el consenso de 18 países (España no está entre ellos) que acuerdan que las empresas que diseñan y utilizan la IA deben desarrollarla y desplegarla de manera que garantice la seguridad de los clientes y del público en general, evitando su mal uso.

Aunque el acuerdo no es vinculante y contiene recomendaciones generales, como la supervisión de sistemas de IA para prevenir abusos, la protección de datos contra manipulaciones y la evaluación de proveedores de software, la directora de la Agencia de Ciberseguridad e Infraestructura de EE. UU., Jen Easterly, ha destacado que es la primera vez que se afirma que estas capacidades no solo deben centrarse en características llamativas o en la rapidez de entrada al mercado, sino que la seguridad debe ser una prioridad desde la fase de diseño.

El acuerdo representa el último esfuerzo de varios gobiernos para dar forma al desarrollo de la IA, cuyo impacto se nota cada vez más en la industria y la sociedad en general. Además de Estados Unidos y Reino Unido, los 18 países firmantes incluyen a Alemania, Italia, la República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur.

Los sistemas de inteligencia artificial ofrecen numerosos beneficios a la sociedad, pero para aprovechar plenamente estas oportunidades, es crucial desarrollar, desplegar y operar la IA de manera segura y responsable.

Estos sistemas enfrentan vulnerabilidades de seguridad novedosas que deben considerarse junto con las amenazas estándar de ciberseguridad. En el caso de la IA, donde el desarrollo avanza rápidamente, la seguridad a menudo se relega a un segundo plano. Sin embargo, estas directrices establecen que la seguridad debe ser un requisito fundamental a lo largo del ciclo de vida del sistema, desde la fase de desarrollo hasta la operación continua.

Las cinco directrices clave

Las directrices se dividen en cuatro áreas clave dentro del ciclo de vida del desarrollo de sistemas de IA: diseño seguro, desarrollo seguro, despliegue seguro y operación y mantenimiento seguro. Cada sección proporciona consideraciones y mitigaciones para reducir el riesgo general en el proceso de desarrollo de sistemas de IA de una organización.

  • Diseño: Comprender los riesgos y modelar amenaza y considerar temas y compensaciones específicos en el diseño del sistema y del modelo.
  • Desarrollo: Aplicar pautas en la etapa de desarrollo, incluyendo seguridad de la cadena de suministro, documentación y gestión de activos y deuda técnica.
  • Despliegue: Proteger la infraestructura y los modelos contra compromisos, amenazas o pérdidas y desarrollar procesos de gestión de incidentes y lanzamientos responsables.
  • Operación y mantenimiento: Proporcionar pautas relevantes para la operación y mantenimiento seguros, incluyendo registro y monitoreo, gestión de actualizaciones y intercambio de información.

Estas directrices buscan garantizar que el desarrollo y uso de la inteligencia artificial se realice de manera ética, segura y responsable, protegiendo así a la sociedad de posibles abusos y promoviendo un avance tecnológico beneficioso para todos.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios