www.zonamovilidad.es
sábado 07 de noviembre de 2020, 09:00h

Escucha la noticia

Mientras que la IA no deja de desarrollarse y expandirse en campos que nunca imaginamos que llegaría, las regulaciones respecto a su aplicación y uso van varios pasos por detrás. Paralelo al avance imparable de la IA, se han desatado una serie de cuestiones éticas sobre las que cada vez más expertos y empresas ponen el foco. De hecho, según un estudio del Instituto de Investigación Capgemini, el 51% de los ejecutivos mundiales considera que es importante garantizar que los sistemas de IA sean éticos y transparentes, pero ¿cómo se alcanza una IA responsable?

Según la Comisión Europea, la IA debería tener los siguientes componentes para ser ética: ser transparente, clara, coherente y comprensible en su funcionamiento; explicable; interpretable; justa (IA que elimina o reduce el impacto del sesgo); y auditable, lo que permitiría a terceros evaluar las entradas de datos y proporcionar la garantía de que se puede confiar en los resultados.

La empresa OpenText ha acotado estas cuestiones que se crean alrededor de la ética de la IA dentro de cualquier entorno empresarial, haciendo énfasis en cuatro puntos clave.

Prejuicios o sesgos

El área de la ética que quizás ha recibido mayor atención es el sesgo, cuando los modelos de datos sesgados o los prejuicios de los desarrolladores se infiltran involuntariamente en el sistema de inteligencia artificial. Ya sea un prejuicio inconsciente del creador del sistema o un sesgo integrado en el modelo de datos que este utiliza, los resultados serán probablemente injustos, discriminatorios o simplemente incorrectos.

"Una buena práctica para evitar caer en sesgos, ser transparentes y responsables es establecer un equipo directivo que supervise el uso de la IA a lo largo de toda la empresa", Jorge Martínez.

En este aspecto “una buena práctica para evitar caer en sesgos, ser transparentes y responsables es establecer un equipo directivo que supervise el uso de la IA a lo largo de toda la empresa, y elaborar un marco ético que describa qué se supone que debe hacer la IA, cómo se debe generar y utilizar y cuáles son los resultados esperados”, comenta Jorge Martínez, director regional de OpenText en España y Portugal.

Responsabilidad y explicabilidad

Si eres responsable de algo, deberías poder explicar por qué ha sucedido de la manera en que ha sucedido. Lo mismo ocurre en el mundo de la IA. Es esencial que cualquier acción que realice la tecnología pueda explicarse y auditarse por completo: tiene que poder rendir cuentas.

Transparencia

Muchas soluciones de IA adoptan un enfoque de "caja negra" que no permite la visibilidad de los algoritmos subyacentes. No obstante, la nueva generación de soluciones de IA que adoptan el código abierto permite a las organizaciones integrar sus propios algoritmos y comparar la calidad de los mismos con sus propios datos.

Certeza en los datos

Un punto clave en la creación de sistemas de IA es cómo trabaja con los datos, especialmente los personales, que se utilizan para completar sus modelos. El machine learning y el deep learning requieren enormes conjuntos de datos para aprender y mejorar. Cuantos más datos, mejores serán los resultados a lo largo del tiempo. Sin embargo, la regulación en torno a la privacidad impone nuevos niveles de responsabilidad a las organizaciones sobre cómo capturan, almacenan, usan, comparten y reportan los datos personales que poseen. Se debe saber cómo y por qué se están procesando los datos y los riesgos involucrados.

Abordar este tipo de cuestiones éticas desde el principio en una organización es un paso fundamental para garantizar la adopción efectiva de la IA en las empresas. Según el estudio de Capgemini, 'Why addressing ethical questions in AI will benefit organizations', las organizaciones que adopten un enfoque ético de la IA se ganarán la confianza de los trabajadores y consumidores, al mismo timepo que evitarán riesgos relacionados con la privacidad, la seguridad y el cumplimiento de la normativa.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios