www.zonamovilidad.es
Jesús Aguilera, Artificial Intelligence & Analytics Presales Manager de SAS Iberia
Jesús Aguilera, Artificial Intelligence & Analytics Presales Manager de SAS Iberia

El papel de la IA explicable para generar confianza

Por Firma invitada
x
infozonamovilidades/4/4/18
sábado 10 de julio de 2021, 11:00h

google+

linkedin

Comentar

WhatsApp

  • Compartir en Meneame

Una gran mayoría de los ciudadanos no son totalmente conscientes de la presencia que la inteligencia artificial tiene ya en su vida diaria. Las recomendaciones que recibimos en las distintas plataformas de contenidos o de ecommerce y nuestra forma de relacionarnos con dispositivos personales a través de la biometría o el control por voz, son solo algunos ejemplos comunes de los distintos usos de esta tecnología.

Yendo un paso más allá, la inteligencia artificial puede tener una influencia más profunda en el futuro de los individuos si tomamos en cuenta que algunas compañías ya la utilizan en sus procesos de selección para el cribado de candidatos o las entidades bancarias recurren a ella para decidir si conceden o no una hipoteca a sus clientes.

“La Unión Europea ya ha trabajado en la primera legislación al respecto, con el objetivo de garantizar la seguridad y los derechos fundamentales de los usuarios”

Es precisamente este impacto creciente el que está haciendo que aumente el interés por el aspecto ético y el compromiso moral de la inteligencia artificial. Tanto que la Unión Europea ya ha trabajado en la primera legislación al respecto, con el objetivo de garantizar la seguridad y los derechos fundamentales de los usuarios, de modo que genere confianza y, con ella, una mayor adopción de la IA.

Es en este complejo contexto en el que se enmarca el auge de la inteligencia artificial explicable, Explainable AI o XAI, aquella inteligencia que las personas pueden entender e interpretar y, por tanto, confiar en ella.

Bruselas propone nuevas normas y limitaciones para la inteligencia artificial

Leer más

Modelos libres de sesgos

Los modelos de IA que incorporan XAI intentan evitar los sesgos que aparecen en el proceso de creación y entrenamiento. Pensemos, por ejemplo, en que si un modelo es entrenado con datos que no representan de forma equitativa a toda la sociedad éste podría tener una desviación y llegar incluso a discriminar por género, raza u otras variables.

“Es fundamental alinear el desarrollo de los modelos de datos con los valores éticos, los derechos y las garantías sociales”

Las compañías que han decidido invertir en IA tienen la responsabilidad de asegurar que en cada paso - desde el desarrollo de los algoritmos, hasta su implementación, y su continuidad en el tiempo - se tienen en cuenta y se integran los principios éticos e implicaciones sociales relevantes para el entorno o la comunidad a la que se dirigen. Podríamos hablar incluso de un concepto de “Explanaible AI by Design”. Este marco de valores debe partir de una colaboración entre todos los participantes en el desarrollo, sean ingenieros de software, científicos de datos, usuarios de negocio, etc. Para generar confianza en esta tecnología, es fundamental alinear el desarrollo de los modelos de datos con los valores éticos, los derechos y las garantías sociales de la población a la que se aplican.

Dos reguladores europeos piden la prohibición del uso de reconocimiento facial en espacios públicos

Leer más

Herramientas de control

La IA explicable ofrece herramientas de control que ayudan a los desarrolladores a crear desde la ética y la responsabilidad, generando una relación de confianza entre la tecnología, las compañías y la sociedad. Estas herramientas se basan en tres pilares fundamentales. En primer lugar, hablamos de la calidad de los datos. En este sentido, es necesario que aquellas organizaciones que utilizan la IA dispongan de sistemas de control de la calidad y de gobierno de los datos capaces de detectar anomalías, rectificarlas y aporten sugerencias para mejorar su calidad.

El segundo aspecto clave para tener en cuenta es la gobernanza de los modelos, de modo que exista un proceso de seguimiento con los responsables directos de los proyectos de IA, que monitorice y audite los resultados al tiempo que mantiene la trazabilidad de la toma de decisiones.

Y, por último, no podemos olvidar la importancia de realizar los ajustes necesarios y de ser capaces de explicar la IA, ya sea de forma interna o a un regulador. Ambas cosas pueden conseguirse con técnicas que utilizan procesamiento de lenguaje natural, para generar de forma automática explicaciones fáciles de entender, informes gráficos y visuales a través de los cuales las áreas de negocio pueden entender la relación existente entre las predicciones del modelo y los datos de los que se nutre, así como obtener informes de monitorización de posibles sesgos.

“Es necesario algún tipo de control y que exista una responsabilidad con respecto a los datos y a las técnicas de modelización”

El potencial de la inteligencia artificial es enorme y no dejará de crecer en los próximos años. Pero para que sea posible lograrlo es necesario algún tipo de control y que exista una responsabilidad con respecto a los datos y a las técnicas de modelización que se están utilizando para construir estos modelos.

En este sentido, la nueva regulación de la UE y el compromiso de organizaciones y gobiernos creo que serán factores clave para asegurar que los ciudadanos se fíen de la inteligencia artificial y que, con confianza, podamos desplegar todos los beneficios que ofrece.

Autor: Jesús Aguilera, Artificial Intelligence & Analytics Presales Manager de SAS Iberia.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)
  • Compartir en Meneame

+

0 comentarios