Bosch comparte su código ético con respecto a la Inteligencia Artificial
Ampliar

Bosch comparte su código ético con respecto a la Inteligencia Artificial

jueves 20 de febrero de 2020, 19:00h

google+

linkedin

Comentar

WhatsApp

  • Compartir en Meneame
La multinacional alemana ha publicado cómo trabaja en el desarrollo de sus productos y cuáles son las directrices proporcionadas a sus empleados. También se ha posicionado en el debate público sobre la inteligencia artificial.

Durante los últimos años, Bosch es una de las empresas tecnológicas que más importancia da a la inteligencia artificial, de entre todas las grandes compañías que no se han centrado específicamente en ello durante su historia. De hecho, sus planes para el futuro próximo involucran a la IA en un primer plano: desde la compañía aseguran que en 2025 todos sus productos habrán sido creados mediante inteligencia artificial o bien la misma estará incluida en estos mismos productos.

Se espera, además, que esta línea sea especialmente positiva económicamente para Bosch. El mercado de inteligencia artificial en el mundo es cada vez mayor, pues se espera que esta tecnología mueva 120.000 millones de dólares dentro de 5 años, lo que supondría doce veces más dinero que en 2018.

La multinacional alemana ha previsto esto y actualmente emplea una enorme cantidad de recursos en el desarrollo de la IA: la inversión anual es de 3.700 millones de euros, y un millar de sus empleados están destinados a este campo.

El código ético

Bosch, debido al gran anticipamiento que acompaña a su estrategia de futuro, ha publicado una serie de líneas rojas para el uso de la IA en la empresa.

El código de ética de la empresa se basa en la siguiente máxima: los humanos deben de ser el árbitro último sobre cualquier decisión basada en inteligencia artificial. “La inteligencia artificial debe servir a las personas. Nuestro código de ética de AI brinda a nuestros empleados una guía clara para el desarrollo de productos inteligentes”, dijo Volkmar Denner, CEO de Bosch.

Esta declaración implica de forma directa que la IA nunca deberá tomar decisiones por las personas sin que una mente humana lo supervise. Existen tres enfoques en el que esta supervisión puede llevarse a cabo:

  • “Human in command”: En estos casos, la IA solamente supondría una ayuda para tomar una decisión que a fin de cuentas tomará la persona por sí misma. El principal ejemplo sería la organización y clasificación de objetos.
  • “Human in the loop”: Los sistemas inteligentes serían capaces de tomar decisiones, pero estas podrían ser revocadas en todo momento por un humano. El ejemplo más claro de este sistema sería la conducción automatizada de forma parcial. En estos casos, un conductor puede, por ejemplo, intervenir en cualquier momento en el movimiento de un coche que aparca solo.
  • “Human on the loop”: En este caso, no existe la posibilidad de una intervención inmediata de un humano sobre las decisiones tomadas por la inteligencia artificial, como en el caso de una frenada automática de emergencia. En su lugar, son los ingenieros los que ajustan los parámetros de actuación y los que determinan bajo qué circunstancias la IA tomará una determinada decisión.
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)
  • Compartir en Meneame

+

0 comentarios