www.zonamovilidad.es
Por Adrian Cascante
x
adriancascante7gmailcom/15/15/21
jueves 15 de abril de 2021, 13:28h

google+

linkedin

Comentar

WhatsApp

Escucha la noticia

Twitter cuenta actualmente con un sistema de comportamiento del algoritmo, el cual, en ocasiones puede llegar a generar daños no intencionados a sus usuarios, generando divisiones raciales o de género que no deberían existir. Es por eso que la aplicación y red social del pájaro azul ha decidido llevar a cabo un análisis completo del comportamiento del mismo con el objetivo de detectar estos posibles daños no intencionados que podría llegar a causar a una serie de usuarios que se encuentran en una posición de inferioridad si se analizan los comportamientos de este sistema tecnológico, algo que no conviene en lo absoluto a la red social.

Parece ser que la red social y aplicación Twitter, se ha dado cuenta de que el comportamiento de su algoritmo puede llegar a entender el sistema y funcionar de forma que llega a causar daños no intencionados a algunos de los usuarios de la red social. Por este mismo motivo, ha anunciado un nuevo plan de actuación con el que buscan comprender cómo funciona exactamente el comportamiento de dicho algoritmo para tratar de descubrir todos aquellos potenciales daños que se generan y producen a diario con el uso del mismo. Se trata de problemas que pueden ser graves en cuanto al sesgo racial o de género en casos cómo el recorte de imágenes automático de la plataforma, el cual debe decidir qué parte de cada imagen muestra y tiende a ofrecer resultados sesgados.

Impacto global

Si algo tiene claro Twitter, es que el uso constante de una herramienta tan amplia cómo es el caso de su algoritmo de aprendizaje automático, tiene de forma clara un impacto a nivel global por parte de todos aquellos usuarios que publican cientos de millones de tuits diarios, algo que se traduce en miles de predicciones por parte de este sistema que inciden en la creación de un comportamiento diferente al que originalmente pueden llegar a tener dichos tuits. La racialización o el sesgo por género, es uno de los principales inconvenientes con respecto a dicho algoritmo, dado que, sobretodo a la hora de buscar miniaturas para las imágenes compartidas, tiende a evitar dichas características en las personas que aparecen.

Twitter busca eliminar el sesgo de contenido de su algoritmo.

Por este mismo motivo, la red social ha informado en su blog de un nuevo plan de acción con el que pretenden poner fin a este tipo de actuaciones por parte de su sistema automático; un plan con el que evaluarán los daños no intencionados posteriores y actuales que pueden causar dichos algoritmos y que se priorizarán cómo uno de los problemas que la compañía debe abordar cuanto antes. Para llevar a cabo dicho análisis, la compañía cuenta con META o ‘Ética, Transparencia y Responsabilidad del Aprendizaje Automático’. Se trata de un equipo de trabajo interdisciplinar que se encargará en todo momento de llevar a cabo los análisis que se presenten en torno a esta investigación del algoritmo.

Trabaja META

Este nuevo equipo de trabajo interdisciplinar de la compañía, ha adoptado una dinámica de grupo en la que se realizan análisis completos adoptando hasta tres líneas de estudio distintas, las cuales se han dividido en: el sesgo racial y de género en el recorte de imágenes, las recomendaciones que la aplicación hace de la línea de tiempo de inicio en todos aquellos subgrupos raciales que forman los usuarios y las recomendaciones de contenido que se realizan dependiendo de las ideologías políticas de los usuarios hasta en siete países en total. Para ello, la compañía ha destacado que cobran importancia las soluciones humanas, dado que las que trabajan de forma técnica son incapaces de resolver los posibles efectos dañinos de las decisiones algorítmicas por si solas.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+

0 comentarios