www.zonamovilidad.es
Estos son los algoritmos de la Administración Pública española y su impacto
Ampliar

Estos son los algoritmos de la Administración Pública española y su impacto

domingo 26 de junio de 2022, 09:00h

Escucha la noticia

Con la digitalización de la sociedad los diferentes estamentos dentro de las instituciones públicas españolas están cada vez más automatizados. Es decir, tienen que lidiar con una gran cantidad de procesos que necesitan una infraestructura digital para facilitar y agilizar cualquier tipo de gestión. Además, para que esto sea posible dependen de sistemas algorítmicos que dirigen y regulan estos procesos, un aspecto fundamental para los trabajadores del sector público. Sin embargo, también pueden crear alguna amenaza en materia de privacidad y de sesgos discriminatorios, especialmente entre los colectivos más vulnerables. Es importante recordar que la Ley 40/2015 del Régimen Jurídico del Sector Público señala que estos sistemas deberían ser auditados.

El Observatorio de Algoritmos con Impacto Social (OASI) de la Fundación Eticas recoge algoritmos que están presentes en instituciones públicas españolas con el objetivo de concienciar sobre su presencia y riesgos en términos de discriminación que en determinados casos puede pasar si no se realiza un ejercicio de transparencia y de análisis de uso de estos.

Sistemas algorítmicos utilizados por distintos organismos públicos en España

España es el sector de las fuerzas del orden en el que más se usan este tipo de algoritmos. Un ejemplo de ello, es el caso de VioGén, un sistema que detecta el riesgo de reincidencia de agresores en casos de violencia de género. Aunque se sabe cómo se creó y cómo funciona, el código del algoritmo sigue sin revelarse, también se desconoce el peso que tienen las diferentes preguntas del protocolo para que el algoritmo genere una puntuación de riesgo. Otro ejemplo sería el caso de Riscanvi, utilizado en Catalunya desde el año 2009. Su labor es calcular la probabilidad que tiene un preso en libertad de volver a reincidir.

Por otro lado, está TENSOR, encargado de supervisar posibles actividades terroristas en internet. Por consiguiente, VERIPOL se encarga de detectar denuncias falsas. Para ello, utiliza el procesamiento del lenguaje natural y el aprendizaje automático para analizar una llamada y predecir la probabilidad de que la denuncia sea falsa.

Un caso bastante conocido de este tipo de algoritmos es la Identificación facial. Aunque, en ocasiones, estos sistemas pueden suponer un problema para el derecho a la privacidad de las personas, así como por la elevada tasa de falsos positivos a la hora de detectar posibles personas bajo seguimiento policial o vigilancia.

En cuanto a los servicios sociales, los sistemas algorítmicos están enfocados a clasificar a las personas según sus necesidades, urgencias o cualquier aspecto básico que necesiten, lo que puede conllevar ciertos riesgos, como por ejemplo la amenaza a la privacidad de los beneficiarios de los servicios sociales o la posibilidad de que se produzcan sesgos discriminatorios contra mujeres, inmigrantes y otros colectivos desfavorecidos.

El Gobierno presenta una herramienta para analizar el impacto de los algoritmos en las condiciones laborales

Leer más

En base a esto es importante mencionar algunos de los sitemas empleados en servicios sociales en España recogidos en OASI, el registro de la Fundación Eticas. El primero es ISSA, el chatbox de la Seguridad Social. En este caso, como su código no es público y no puede ser auditado, es posible que el chatbot esté ofreciendo las mismas respuestas a diferentes usuarios dependiendo de cómo se expresen. Por ese motivo, existe la posibilidad de discriminación hacia las personas cuya lengua materna no sea el español, ya que pueden recibir un peor servicio o respuestas erróneas por parte del chatbot. A continuación, está BOSCO, que regula el bono social para el pago de la factura de la luz. Además, su labor es revisar las solicitudes del bono social y hasta decide el resultado

Finalmente, en el ámbito laboral, para encontrar empleo existe el algoritmo SEND@ que realiza una búsqueda entre un grupo de personas que tienen un perfil semejante y se fija en aquellos que tienen mejor trayectoria profesional y en las acciones que han realizado para ofrecer recomendaciones formativas. Pero, existe un riesgo de discriminación ya que históricamente algunos grupos de personas han sido discriminados a la hora de buscar un empleo como las mujeres y las minorías sociales, por este motivo, el algoritmo corre el riesgo de reforzar ese tipo de discriminación.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios