www.zonamovilidad.es
El programa de AI de Microsoft acaba antisemita y homófobo
Ampliar

El programa de AI de Microsoft acaba antisemita y homófobo

sábado 02 de abril de 2016, 18:35h

Escucha la noticia

A Microsoft no le salió muy bien su experimento de Inteligencia Artificial. El programa informático Tay empezó bien, pero tras unas horas de interacción con humanos acabó diciendo barbaridades como que Hitler no hizo nada malo o que las feministas debían arder en el infierno.

Tay es un programa informático diseñado para interactuar con jóvenes entre 18 y 24 años. El programa va aprendiendo según interactua con los humanos.

Sin embargo, el experimento de Microsoft no funcionó demasiado bien. A medida que Tay interactuaba con personas, se volvía cada vez más xenófoba, malhablada y sexista. Se hizo simpatizante de Hitler y acabó deseando a muchos que acabasen en un campo de concentración.

Microsoft ha tenido que desactivar el programa y ha pedido disculpas, aunque cree que ha sido víctima de un sabotaje por un grupo de personas que jugaron a confundir e insultar a Tay.

"Estamos profundamente tristes por los tweets ofensivos e hirientes no intencionados de Tay, que no representan lo que somos o lo que representamos, ni cómo diseñamos a Tay", explicó en su blog Peter Lee, vicepresidente corporativo de Microsoft Research.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios