www.zonamovilidad.es
Esquema de la evaluación del impacto ético de la IA
Esquema de la evaluación del impacto ético de la IA (Foto: Fujitsu)

Kozuchi, Lexatin para el Gobierno ante los problemas de la IA: regular o creer en la industria

Por Pilar Bernat
x
pbernattelycom4com /7/7/16
jueves 27 de abril de 2023, 09:30h

Escucha la noticia

Aunque el debate sobre si regular o dejar trabajar a la industria continúa, hay que denunciar que los algoritmos tienen más de 70 años de vida, que empresas como Apple o Google los utilizan de forma muy poco ética hace más de 20 y que, hasta ahora, a nadie parecía interesarle hablar de temor y de salvaguardar una sociedad inmersa ya en un proceso de digitalización muy avanzado.

La Secretaria de Estado de Digitalización e Inteligencia Artificial en España, Carme Artigas, defiende la regulación de la inteligencia artificial y su uso ético frente a las críticas de países como EE. UU. Casi el mismo día en que se planteaba el debate, Fujitsu presentaba en Madrid una herramienta llamada FAMEL que detecta sesgos en los datos utilizados para entrenar algoritmos de IA y ofrece posibles mitigaciones. Además, han creado AutoML, un generador de IA diseñado para empresas sin científicos de datos en sus plantillas.

"Los valores y los principios éticos de una sociedad deben traducirse en límites a la tecnología"

Parece que Artigas está molesta por las críticas que ha recibido Europa al manifestar su intención de regular la utilización de la Inteligencia Artificial y ha declarado contundentemente que "los valores y los principios éticos de una sociedad deben traducirse en límites a la tecnología".

Sin embargo, el origen de la inteligencia artificial hay que buscarlo a mediados del siglo pasado. Esto es, llevamos 73 años desarrollando algoritmos que han ido entrando en nuestra vida (hayamos querido o no), pero ahora, dentro del teorema de lo políticamente correcto, la posición del Gobierno, según leemos en Zonamovilidad.es, es clara: "Ahora, todo el mundo ha descubierto que a la tecnología y a la IA hay que ponerle limites, incluso la industria se ha asustado de las propias implicaciones negativas de un desarrollo tecnológico sin cortapisas que puede producir unos daños a futuro que pueden ser irreversibles".

El Gobierno aprovechará la Presidencia europea para impulsar la regulación de la inteligencia artificial

Leer más

Fujitsu Kozuchi

Ante esta situación, la Secretaria de Estado da la bienvenida al resto del mundo al "club de las soluciones" donde estaba Europa "desde hace tres años" y "donde nos hemos sentido muy solos". Pero es probable que esta semana la responsable de la digitalización en España esté más tranquila ya que hemos conocidos Fujitsu Kozuchi, una plataforma o suite de soluciones de IA desarrollada por la multinacional japonesa, incluye una herramienta denominada FAMEL (Fujitsu Assesment for Machine Learning), sobre la cual Carlos Cordero, CTO de Fujitsu Iberia explica lo siguiente:

"Si los datos que utilizas para entrenar los algoritmos no son buenos y tienen sesgos, el algoritmo va a trabajar sesgado y esto es muy grave"

"Si los datos que utilizas para entrenar los algoritmos no son buenos y tienen sesgos, el algoritmo va a trabajar sesgado y esto es muy grave. Hay muchos entornos, como la banca o los seguros, donde este problema es transcendental. Por eso el laboratorio de IA de Fujitsu ha desarrollado FAMEL, un sistema de interfaz gráfico mediante el cual el usuario sube los 'data sets' que está utilizando para entrenar sus algoritmos y la herramienta detecta de forma automática si tiene sesgos o no. Y esto es solo un primer paso, pero vamos mucho más allá". La herramienta, además, ofrece posibles mitigaciones a esos sesgos que ha detectado y le dice al científico de datos qué debería hacer para corregir esos sesgos.

Según comenta Cordero, el producto ya se ha probado con un gran banco en España y "funciona fenomenalmente bien". Y esta primera prueba es importante para España porque, tal y como ha defendido Carme Artigas, Europa es la región del mundo más avanzada en temas de legislación y ética de inteligencia artificial.

Tanto, que los reguladores van a imponer, entre otras, a las empresas españolas tener cuidado y seguir de manera estricta los temas de sesgo y demás riesgos asociados al uso de la inteligencia artificial.

"Debemos construir el futuro ético de la inteligencia artificial"

Leer más

AutoML

En esa misma comparecencia, la Secretaria de Estado defendía que los algoritmos no solo no destruyen puestos de trabajo, sino que los crean; algo que se entiende si se analiza la aparición de otra herramienta muy importante para el mercado español llamada 'AutoML'.

"Con AutoML no es un requisito tener un especialista, un problema grande en España porque hay una escasez muy grande de estos profesionales"

No tener científicos de datos significa que no se pueden generar soluciones utilizando inteligencia artificial, aunque se tengan los datos. AutoML no sustituye al científico, el programa no realiza el ciclo completo, hacen falta expertos para ponerlo en producción, pero les facilita el trabajo. Concretamente, Fujitsu ha desarrollado un generador de inteligencia artificial que tiene la particularidad de que ha sido diseñado para empresas que no cuentan con científicos de datos en sus plantillas. "Es necesario tener bases de datos, lógicamente, porque sin ellas poco se puede hacer -explica Carlos Cordero-; sin embargo, con AutoML no es un requisito tener un especialista, un problema grande en España porque hay una escasez muy grande de estos profesionales".

Como ejemplo explicativo, el CTO de Fujitsu utilizó el de una productora de acero que disponen de muchos datos de su producción y de lo que hacen, pero sin científicos de datos no pueden utilizar inteligencia artificial para mejorar esa producción e incluso hacer cosas nuevas. En este caso, AutoML les va a ayudar a generar inteligencia artificial y poder utilizar algoritmia en sus procesos. La máquina genera un código fuente modificable y personalizable.

"No digo el desarrollo de IA esté libre de posibles sesgos al cien por cien. Pero sí diría que el 99,9% está identificado"

En conclusión, Fujitsu considera que ya hay un estándar de 'bias' o sesgo muy potente y bien trabajado. "No digo el desarrollo de IA esté libre de posibles sesgos al cien por cien. Pero sí diría que el 99,9% está identificado. A veces es muy difícil detectarlo; hay tipos de sesgos que son muy difíciles de descubrir y esta herramienta los puedes encontrar".

El debate de si es mejor dejar trabajar a la industria, detectar el problema y ponerlo sobre la mesa para que se busquen soluciones o hay que regular y prohibir sigue sobre la mesa. ¡Ojalá hubiera estado cuando Apple y Google invadieron nuestras vidas y decidieron tomar las riendas de la sociedad mundial y de su libertad, en el sentido más amplio de la palabra!

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios