www.zonamovilidad.es
José Rodríguez Alberto Ruiz, Director de Protección de Datos de Cornerstone OnDemand
Ampliar
José Rodríguez Alberto Ruiz, Director de Protección de Datos de Cornerstone OnDemand

Por qué no se puede culpar a la Inteligencia Artificial de sus prejuicios

Por Firma invitada
x
infozonamovilidades/4/4/18
sábado 27 de marzo de 2021, 12:00h

google+

linkedin

Comentar

WhatsApp

  • Compartir en Meneame

La Inteligencia Artificial (IA) a veces tiene cierta mala reputación. A pesar de la capacidad de simplificar muchos procesos y acciones en nuestro día a día, a menudo nos centramos en los elementos más negativos, como si tuviese demasiado poder, su sesgo percibido, o la SkyNet de Terminator.

A medida que la IA está más presente en nuestra vida cotidiana, parece que estamos empezando a ver más y más ejemplos negativos de IA. Por ejemplo, Science of Love es una app desarrollada por una compañía llamada Scatter Lab que tuvo que ser retirada por mensajes de odio y filtrar datos personales. Las malas noticias tienen una mayor carga emocional y les prestamos más atención.

"La tecnología de la IA no tiene conciencia ni intención, la culpa la tiene la falta de consideración de la importancia de los factores éticos"

Sin embargo, la tecnología en sí misma rara vez tiene la culpa de esto. Uno de los mayores retos de la IA es, de hecho, la gente. La tecnología de la IA no tiene conciencia ni intención, la culpa la tiene la falta de consideración de la importancia de los factores éticos y las consecuencias cuando se trata de una IA fácilmente impresionable.

Este es el verdadero problema al que nos enfrentamos. La IA tiene el poder de ofrecer grandes cosas y mejorar nuestra vida cotidiana de formas que aún no imaginamos, pero debemos analizarla con precaución y cuidado: no es la IA la que está sesgada, sino que influye cómo la construimos y la utilizamos.

¿Qué es la IA y cómo aprende su sesgo?

En pocas palabras, la Inteligencia Artificial es cualquier tarea realizada por una máquina que antes requería inteligencia humana. Esto abarca desde tomar notas durante las reuniones hasta conducir aviones y coches. Pero la IA no puede pensar como un humano (¡al menos no todavía!), sólo puede seguir las reglas y procesos que se le enseñan o que ha aprendido de los datos. Se trata menos de inteligencia perceptiva y más de hacer un trabajo siguiendo un modelo computacional.

"Si una tecnología impulsada por la IA actúa de forma discriminatoria, es porque está siguiendo (ciegamente) los patrones que le han marcado"

Irónicamente, el sesgo en los modelos computacionales se origina de la misma manera que los humanos. Nuestra predisposición viene dictada por las personas con las que crecimos, las situaciones a las que estuvimos expuestos, nuestros educadores y todo lo que define quiénes somos como personas; del mismo modo, la predisposición de una IA proviene directamente del proceso de creación del modelo computacional. La IA es como una esponja de alta tecnología que absorbe todo lo que puede de los datos para producir procesos para realizar tareas, normalmente reproduciendo patrones presentes en los datos. Si una tecnología impulsada por la IA actúa de forma discriminatoria, es porque está siguiendo (ciegamente) los patrones que le han marcado. Debido a su naturaleza maleable, es tan susceptible al sesgo inconsciente como los humanos.

Mitigar los riesgos y encontrar soluciones

Cuando se trata de combatir el sesgo de una tecnología impulsada por la IA, hay que empezar mucho antes de la concepción del producto. Parte del mayor problema de la IA es que no hay suficiente educación sobre las implicaciones éticas de la tecnología.

La Universidad de Cambridge anunció el año pasado que sería la primera universidad en ofrecer un curso de posgrado sobre la ética de la IA. Sin embargo, a pesar de este avance, la formación en ética de la IA todavía no es un aspecto esencial de los cursos de informática. Esto es lo primero que debe cambiar antes de que podamos ver cómo se modifican otras cuestiones de gran alcance. Los fundamentos de la ética de la IA deben enseñarse en los entornos educativos, de lo contrario habrá que "desaprender" muchos elementos del trabajo con la IA. Debemos adentrarnos en el desarrollo de la IA con una mentalidad abierta, sin prejuicios y con una comprensión completa de la tecnología, así como de sus posibles implicaciones.

"Debemos adentrarnos en el desarrollo de la IA con una mentalidad abierta, sin prejuicios y con una comprensión completa de la tecnología"

Más allá de la formación en los fundamentos de la ética de la IA, es necesario que los equipos trabajen en su propia formación interna en materia de diversidad e inclusión, especialmente para los que trabajan directamente con la tecnología de la IA. Es esencial que estos equipos dedicados a la IA sean diversos para aprovechar el poder de los diferentes orígenes y experiencias y, en última instancia, crear productos y sistemas de mejor rendimiento y menos discriminatorios. Al igual que ocurre con los seres humanos, estar rodeados de las personas con las que nos sentimos cómodos puede hacer que estemos menos abiertos a la diversidad y estar atrapados en nuestras únicas percepciones hace que el cambio sea aún más difícil. Hay que dedicar tiempo a hacer de la formación en materia de diversidad una parte fundamental del aprendizaje diario, y a que todos los miembros del equipo realicen dicha formación para evitar posibles contratiempos. De lo contrario, corremos el riesgo de no darnos cuenta de que estamos alimentando la IA con datos sesgados o de que la aplicación de los modelos computacionales genera discriminación. La IA se desplegará a gran escala y debemos asegurarnos de que no repita los patrones de discriminación del pasado.

Ni siquiera el cielo es el límite para la Intelig'encia Artificial. Tecnológicamente, estamos ahí, y estamos preparados para asumir cualquier problema potencial que pueda surgir, pero en términos de ética, tenemos un camino por delante que recorrer. Incorporar la formación ética en la educación sobre IA es un buen punto de partida y, con el tiempo, a medida que las propias organizaciones se diversifiquen de forma natural, veremos menos prejuicios (inconscientes) inyectados en estas tecnologías. La IA ética es una necesidad absoluta si queremos que la IA alcance todo su potencial, sólo tenemos que asegurarnos de que la alimentamos con los conocimientos adecuados, de las personas adecuadas para hacer las cosas correctas, tecnológica y éticamente. Nadie vende coches sin frenos.

Autor: José Rodríguez Alberto Ruiz, Director de Protección de Datos de Cornerstone OnDemand

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)
  • Compartir en Meneame

+

0 comentarios