www.zonamovilidad.es
jueves 13 de abril de 2023, 09:00h

Escucha la noticia

La Agencia Española de Protección de Datos (AEPD) ha pedido al organismo de control de la privacidad de la Unión Europea que evalúe los problemas de privacidad que rodean a ChatGPT de OpenAI, según informó la agencia a Reuters, mientras se intensifica el escrutinio global de los sistemas de Inteligencia Artificial (IA).

La noticia de la solicitud de la AEPD se produjo mientras el organismo de control de la privacidad francés CNIL dijo que estaba investigando varias quejas sobre ChatGPT y el regulador de datos de Italia estaba revisando las medidas propuestas por OpenAI, respaldada por Microsoft Corp (MSFT.O), en respuesta a las preocupaciones que llevaron al regulador el 31 de marzo a prohibir temporalmente el chatbot. La junta del regulador italiano se reunió el martes.

"La AEPD entiende que las operaciones de procesamiento global que pueden tener un impacto significativo en los derechos de las personas requieren decisiones coordinadas a nivel europeo"

El gobierno de Biden también dijo que estaba buscando opiniones públicas sobre posibles medidas de responsabilidad para los sistemas de IA, ya que se ciernen preguntas sobre su impacto en la seguridad nacional y la educación.

"La AEPD entiende que las operaciones de procesamiento global que pueden tener un impacto significativo en los derechos de las personas requieren decisiones coordinadas a nivel europeo", indicó un portavoz de la agencia en un comunicado enviado por correo electrónico.

"Por ello, a corto plazo, ha solicitado que el tema del ChatGPT se incluya en el próximo Pleno del Comité Europeo de Protección de Datos, de forma que se puedan implementar acciones armonizadas en el marco de la aplicación del Reglamento General de Protección de Datos."

Los reguladores se plantean si son necesarias medidas más severas para los chatbots

Hoy, 13 de abril está prevista una reunión plenaria del Comité Europeo de Protección de Datos (CEPD), que incluye a representantes de los organismos nacionales de control de la privacidad de los datos.

En una declaración enviada por correo electrónico a Reuters, la EDPB dijo que no podía compartir información sobre las reuniones. Por lo general, la EDPB no participa en investigaciones a nivel nacional, que son responsabilidad de las autoridades nacionales de protección de datos.

La medida del regulador italiano ha despertado el interés de otros reguladores de la privacidad en Europa, que están estudiando si son necesarias medidas más severas para los chatbots y si deben coordinar tales acciones.

EE.UU. comienza a estudiar posibles normas para regular la IA como ChatGPT

El gobierno de Biden ha anunciado que está recabando opiniones públicas sobre posibles medidas de responsabilidad para los sistemas de Inteligencia Artificial (IA), mientras se ciernen interrogantes sobre su impacto en la seguridad nacional y la educación.

La Administración Nacional de Telecomunicaciones e Información, organismo del Departamento de Comercio que asesora a la Casa Blanca en política de telecomunicaciones e información, quiere conocer su opinión, ya que existe un "creciente interés regulador" en un "mecanismo de responsabilidad" de la IA.

La agencia quiere saber si hay medidas que puedan ponerse en marcha para proporcionar garantías "de que los sistemas de IA son legales, eficaces, éticos, seguros y, por lo demás, dignos de confianza".

"Los sistemas de IA responsables podrían aportar enormes beneficios, pero sólo si abordamos sus posibles consecuencias y daños. Para que estos sistemas alcancen todo su potencial, las empresas y los consumidores deben poder confiar en ellos", declaró Alan Davidson, administrador de la NTIA.

El Presidente Joe Biden dijo la semana pasada que aún está por ver si la IA es peligrosa. "En mi opinión, las empresas tecnológicas tienen la responsabilidad de asegurarse de que sus productos son seguros antes de hacerlos públicos", afirmó.

ChatGPT, que ha asombrado a algunos usuarios por sus rápidas respuestas a las preguntas y ha angustiado a otros por sus imprecisiones, está fabricado por OpenAI, con sede en California, y cuenta con el respaldo de Microsoft Corp.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios