www.zonamovilidad.es
Por Alfonso de Castañeda
x
alfondcctelycom4com/8/8/17
jueves 10 de julio de 2025, 15:00h

Escucha la noticia

La Comisión Europea ha hecho pública la versión final del Código de Buenas Prácticas para modelos de inteligencia artificial de propósito general, una herramienta voluntaria destinada a facilitar la implementación progresiva del Reglamento de IA (AI Act) aprobado en 2024.

El código llega en un momento clave: el próximo 2 de agosto entrarán en vigor las obligaciones específicas para los proveedores de este tipo de modelos, incluidos sistemas avanzados como ChatGPT, Claude o Gemini.

El objetivo del nuevo código es ofrecer una guía operativa para que empresas y desarrolladores se adapten con antelación a las exigencias legales de la Ley de IA. Según Bruselas, la adopción de este marco permitirá a los firmantes beneficiarse de una menor carga administrativa y una mayor seguridad jurídica en su proceso de adecuación.

El texto está elaborado por 13 expertos independientes con la colaboración de más de 1.000 actores del ecosistema de IA en Europa: proveedores de modelos, pymes tecnológicas, investigadores, expertos en seguridad, titulares de derechos y organizaciones de la sociedad civil. El resultado es un documento dividido en tres bloques principales: transparencia, derechos de autor y gestión de riesgos sistémicos.

“Invito a todos los proveedores de modelos de IA generalista a adherirse al Código. Así asegurarán una vía clara y colaborativa hacia el cumplimiento del Reglamento de IA de la UE”, ha declarado Henna Virkkunen, vicepresidenta ejecutiva para Soberanía Tecnológica, Seguridad y Democracia.

Transparencia y documentación técnica

Uno de los pilares del nuevo código es la transparencia. Los desarrolladores de modelos deberán documentar detalladamente las capacidades, limitaciones, arquitectura y funcionamiento de sus sistemas. Esta información debe estar disponible tanto para autoridades reguladoras como para terceros interesados en integrar estos modelos en sus propios productos.

Para ello, el código incluye un formulario estandarizado de documentación de modelos (Model Documentation Form) que busca simplificar y unificar la recopilación de datos técnicos relevantes, algo que resulta especialmente importante para garantizar la trazabilidad y responsabilidad de los sistemas de IA.

Protección de derechos de autor

El capítulo dedicado a los derechos de autor introduce obligaciones concretas para garantizar que los modelos no se entrenen con materiales protegidos sin autorización. En este sentido, el código prohíbe explícitamente el uso de contenidos pirateados y exige que los proveedores respeten las solicitudes de exclusión por parte de autores y artistas.

Asimismo, en los casos en los que un modelo genere contenido que infrinja normas de propiedad intelectual, las empresas deberán disponer de mecanismos eficaces para resolver la situación. Este punto busca armonizar la aplicación de la Ley de IA con las disposiciones del marco legal europeo sobre copyright, en un momento en el que el debate sobre el uso de obras protegidas en el entrenamiento de modelos sigue siendo un foco de conflicto en la industria.

Gestión de riesgos sistémicos

Para los modelos más potentes, el código incorpora un tercer apartado centrado en la seguridad. Este bloque responde a los riesgos sistémicos que pueden derivarse de modelos avanzados, como amenazas a derechos fundamentales, seguridad pública o incluso el desarrollo de armas químicas y biológicas. El texto establece prácticas de gestión del riesgo basadas en el estado del arte, exigiendo auditorías internas y planes de mitigación adecuados.

Una implementación escalonada con críticas del sector

Aunque el Código de Buenas Prácticas es voluntario, su publicación ha generado un intenso debate. Compañías como Meta o Google han expresado su preocupación por la complejidad añadida que, a su juicio, el texto introduce respecto al propio AI Act. Además, un grupo de grandes empresas europeas —incluidas ASML, Airbus y la startup Mistral AI— ha solicitado una moratoria de dos años en la aplicación de las reglas, alegando que se necesita un enfoque más favorable a la innovación.

Por ahora, la Comisión ha rechazado posponer la entrada en vigor de la normativa. La supervisión directa del cumplimiento, sin embargo, no comenzará hasta agosto de 2026, momento en el que la Oficina de IA de la Comisión asumirá la responsabilidad de vigilancia. Hasta entonces, serán los tribunales nacionales quienes se encarguen de hacer cumplir la normativa, pese a la posible falta de experiencia técnica.

Foto: Depostiphotos

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios