www.zonamovilidad.es
Noyb denuncia a ChatGPT por proporcionar información falsa sobre personas; OpenAI admite incapacidad para corregir errores
Noyb denuncia a ChatGPT por proporcionar información falsa sobre personas; OpenAI admite incapacidad para corregir errores

Noyb denuncia a ChatGPT en Austria por proporcionar datos falsos de personas

Por Adolfo Rodríguez-Bouza
x
adolforodriguezbouzamedinagmailcom/26/26/32
lunes 29 de abril de 2024, 11:51h

Escucha la noticia

La asociación Noyb, especializada en la defensa de la privacidad, ha interpuesto una denuncia ante la autoridad de protección de datos austriaca contra OpenAI. En su comunicado, la organización ha señalado que según el Reglamento General de Protección de Datos es fundamental que la información sobre individuos sea precisa y esté correctamente almacenada.

La asociación Noyb ha destacado que OpenAI reconoció abiertamente su incapacidad para corregir información incorrecta generada por ChatGPT, así como su desconocimiento sobre el origen de la información o qué datos específicos guarda sobre los individuos.

Noyb, en su comunicado, ha expresado que ChatGPT sigue alucinando y ni siquiera OpenAI puede detenerla. Este ha sido motivo para la presentación de la denuncia ante la autoridad austriaca de protección de datos. La asociación argumentó que la información inexacta generada por ChatGPT, especialmente sobre individuos, podría tener consecuencias graves y violar disposiciones del RGPD que exigen la exactitud de los datos.

Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología tiene que seguir los requisitos legales, no al revés

“Inventar información falsa es bastante problemático en sí mismo. Pero cuando se trata de información falsa sobre personas, las consecuencias pueden ser graves. Está claro que las empresas son actualmente incapaces de hacer que chatbots como ChatGPT cumplan la legislación de la UE cuando tratan datos sobre personas. Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología tiene que seguir los requisitos legales, no al revés”, ha afirmado en el comunicado Maartje de Graaf, abogada de protección de datos de noyb.

La organización ha subrayado que, aunque OpenAI es consciente de estos problemas, parece no mostrar interés en abordarlos, defendiendo que la precisión de los modelos de lenguaje está sujeta a investigación continua.

Según Noyb, la popularidad creciente de ChatGPT ha llevado a las autoridades europeas a examinar de cerca las herramientas de inteligencia artificial generativa. La DPA italiana impuso una restricción temporal al procesamiento de datos de ChatGPT en marzo de 2023 debido a la inexactitud del chatbot. Posteriormente, la Junta Europea de Protección de Datos estableció un grupo de trabajo para coordinar los esfuerzos nacionales sobre ChatGPT.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios