Febrero 2013
26 de septiembre de 2020, 21:11:47
Noticias Tecnología


La IA no destruirá a la humanidad, eso es cosa de los algoritmos sesgados

Por Redacción

John Giannandrea, director de Inteligencia Artificial de Google, asegura que la humanidad no tiene nada que temer a las máquinas. La clave del peligro está en los algoritmos sesgados de aprendizaje automático: “si les damos a estos sistemas datos sesgados, estarán sesgados”.


En un reciente artículo de Will Knight publicado en MIT Technology Review con motivo de la conferencia de Google sobre la relación entre los seres humanos y los sistemas de Inteligencia Artificial John Giannandrea, director de IA en la compañía, ha asegurado que los robots asesinos superinteligentes no le quitan el sueño. Giannandrea, sin embargo, sí está preocupado por los algoritmos de aprendizaje automático utilizados para tomar millones de decisiones cada minuto.

Y es que a medida que la tecnología avanza en áreas como la medicina y el derecho, la cuestión del sesgo en el aprendizaje crece. Y también aumenta a medida que más gente sin un profundo conocimiento técnico tiene que implementar esta tecnología a determinados procesos. El sesgo algorítmico ya es omnipresente en muchas industrias y casi nadie está haciendo un esfuerzo para identificarlo o corregirlo, tal y como afirman los expertos del sector.

John Giannandrea añade al respecto: "Es importante que seamos transparentes sobre los datos de entrenamiento que usamos y que busquemos prejuicios ocultos en ellos. De lo contrario, estaremos construyendo sistemas sesgados. Si alguien está tratando de vender un sistema tipo caja negra como elemento de apoyo para tomar una decisión médica, pero no se sabe nada acerca de cómo funciona o qué datos se utilizaron para entrenarlo, entonces es difícil confiar", afirma.

El sesgo algorítmico ya es omnipresente en muchas industrias y casi nadie está haciendo un esfuerzo para identificarlo o corregirlo

Aprendizaje automático sesgado

Por ejemplo, en este contexto hay que señalar que los modelos de aprendizaje automático de caja negra están teniendo un impacto importante en la vida de algunas personas. Un sistema llamado COMPAS, creado por Northpointe, es ya capaz de predecir la probabilidad de reincidencia de los acusados. De hecho, algunos jueces ya lo usan para determinar si un recluso puede beneficiarse de la libertad condicional. El funcionamiento de COMPAS es, por el momento, secreto. Pero una investigación de ProPublica halló pruebas de que el modelo puede estar sesgado en perjuicio de las minorías.

Los sistemas de aprendizaje automáticos basados en Big Data están diseñados para ser mucho más fáciles de usar que los algoritmos subyacentes. Este aspecto ayuda a la tecnología a ser más accesible pero también facilita el sesgo.

Para abordar esta cuestión no basta con hacer públicos los detalles de los datos o del algoritmo empelado. Los investigadores ya trabajan en la manera para que los ingenieros y usuarios finales tengan una aproximación sobre el funcionamiento de estos sistemas.

Puede que Giannandrea esté en lo cierto cuando afirma que el quid de la cuestión está relacionado con el poder que los humanos damos a los a los robots que los propios robots asesinos en sí, al menos por ahora.

Zonamovilidad.es.  Todos los derechos reservados.  ®2020   |  www.zonamovilidad.es