www.zonamovilidad.es
Por Alfonso de Castañeda
x
alfondcctelycom4com/8/8/17
miércoles 13 de marzo de 2024, 13:16h

Escucha la noticia

La Unión Europea se convierte en la primera potencia en contar con una regulación integral de la inteligencia artificial a nivel global, después de que el Parlamento Europeo haya aprobado con aplastante mayoría la norma.

El texto, aprobado por la Eurocámara con 523 votos a favor, 46 en contra y 49 abstenciones llega casi tres años después de que la Comisión Europea presentara su primer borrador y se ha retrasado por la popularización de la IA generativa, impulsada en gran medida por el lanzamiento de ChatGPT a nivel global que ha obligado a los reguladores a modificar los textos regulatorios.

Esta norma, considerada “histórica” por buena parte de los reguladores implicados y por los expertos en materia de inteligencia artificial, logró el visto bueno del conjunto de Los 27 Estados miembros en un larguísimo trílogo bajo la presidencia de España y con Carme Artigas, exSecretaria de Estado de Digitalización e IA como gran impulsora. La ley (AI Act) establece un sistema de tres niveles de riesgo con diferentes obligaciones: alto, medio y bajo.

"Por fin tenemos la primera ley vinculante del mundo sobre inteligencia artificial, para reducir riesgos, crear oportunidades, combatir la discriminación y aportar transparencia”, asegura el eurodiputado italiano Brando Benifei. “Gracias al Parlamento, se prohibirán las prácticas inaceptables de IA en Europa y se protegerán los derechos de los trabajadores y los ciudadanos”, apunta el socialdemócrata, quien ha confirmado además que ahora se creará una Oficina de la IA para “ayudar a las empresas a empezar a cumplir las normas antes de que entren en vigor”.

“Hemos vinculado el concepto de inteligencia artificial a los valores fundamentales que constituyen la base de nuestras sociedades”

En esta misma línea se ha referido el eurodiputado rumano Dragos Tudaroche, quien ha señalado que "la UE ha cumplido. Hemos vinculado el concepto de inteligencia artificial a los valores fundamentales que constituyen la base de nuestras sociedades. Sin embargo, queda mucho trabajo por delante que va más allá de la propia Ley de IA”. “La IA nos obligará a replantearnos el contrato social en el que se basan nuestras democracias, nuestros modelos educativos, los mercados de trabajo y nuestra forma de hacer la guerra”, asegura el parlamentario de Renew.

El calendario de la ley

La regulación entrará en vigor en 20 días y será plenamente aplicable 24 meses después de su entrada en vigor, salvo en cuestiones específicas. De este modo, las obligaciones para los sistemas de alto riesgo entrarán en vigor a los 36 meses de su aprobación (es decir, en abril de 2027).

Mientras tanto, las prohibiciones de prácticas prohibidas entrarán en vigor este mismo año (en seis meses) y los códigos de buenas prácticas lo harán a los nueve meses (finales de año). Además, las normas de propósito general en materia de IA, incluida la gobernanza estarán en vigor en 2025 (12 meses después de la entrada en vigor).

Qué prohíbe la ley

Esta nueva Ley de IA establece así prohibiciones claras para determinadas aplicaciones de la inteligencia artificial que afectan a los derechos de los ciudadanos, como son los sistemas de categorización biométrica que están basados en características sensibles, así como la extracción no selectiva de imágenes faciales de internet o de grabaciones de CCTV para crear bases de datos de reconocimiento facial.

La regulación que ha aprobado hoy el Parlamento Europeo prohíbe el social scoring y la actuación policial predictiva

Asimismo, la regulación que ha aprobado hoy el Parlamento Europeo prohíbe el reconocimiento de emociones en el lugar de trabajo y en los colegios, así como el social scoring y la actuación policial predictiva, es decir, la que está basada únicamente en el perfil de una persona y en la evaluación de sus características.

También se limitará el uso de los algoritmos de IA que manipulen el comportamiento humano y que exploten las vulnerabilidades de las personas.

Excepciones

La regulación, sin embargo, sí establece una serie de excepciones para las fuerzas y cuerpos de seguridad del Estado, permitiéndoles el uso de sistemas de identificación biométrica en situaciones enumeradas “exhaustivamente” y definidas con precisión.

Estos sistemas biométricos se podrán usar también en tiempo real de manera muy limitada en el tiempo y en el ámbito geográfico, pero siempre sujeto a una autorización judicial o administrativa previa. Estos casos incluyen, por ejemplo, la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista.

Además, el uso de estos sistemas a posteriori se considera un caso de uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.

Obligaciones para todos los sistemas

Por otro lado, la normativa prevé una serie de obligaciones para sistemas de IA de alto riesgo por su posible perjuicio a la salud, seguridad, derechos y medio ambiente.

Entre ellos, se señalan las infraestructuras críticas, la educación y la formación profesional, así como el empleo, los servicios públicos y privados esenciales como son la banca y la sanidad y también determinados sistema de aplicación de la ley como la migración y la gestión de fronteras. Asimismo, se pone el foco en los procesos democráticos.

Todos estos sistemas tendrán la obligación de evaluar y reducir los riesgos, manteniendo un exhaustivo registro de sus usos, transparencia y precisión y además siempre tendrán que estar supervisados por personas.

Los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA

Además, los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo.

Mientras tanto, se fijan también obligaciones para los sistema de IA de propósito general y sus modelos, que tendrán que cumplir ciertos requisitos de transparencia, incluido el cumplimiento de la ley europea sobre derechos de autor y la publicación de resúmenes detallados de los contenidos que se han utilizado para entrar los algoritmos.

Por su parte, los modelos que entran en riesgo medio tendrán una serie de requisitos adicionales, entre los que se incluyen evaluaciones de los modelos, evaluación y mitigación de los riesgos sistémicos y la notificación de incidentes. Además, los contenidos de imágenes, audio y vídeo artificiales o manipulados tendrán que ir claramente etiquetados como tales.

No está libre de polémica

La regulación, sin embargo, no está libre de detractores y es que son varios los expertos y compañías especializadas que aseguran que esta norma limitará la innovación dentro de la Unión Europea, frenando así los avances frente a otras potencias libres de normativas, como Estados Unidos y China, entre otras.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios