La Comisión de Protección de Datos de Irlanda (DPC, por sus siglas en inglés, el máximo regulador de privacidad de la UE, ha iniciado una investigación para determinar si Google cumple con las normativas europeas de protección de datos en el desarrollo de su modelo de inteligencia artificial (IA) Pathways Language Model 2 (PaLM 2).
Esta investigación tiene como objetivo verificar si la empresa ha llevado a cabo una Evaluación de Impacto en la Protección de Datos (DPIA), tal como lo exige el Reglamento General de Protección de Datos (GDPR) cuando el tratamiento de datos puede implicar un riesgo elevado para los derechos y libertades de los ciudadanos de la Unión Europea (UE) y del Espacio Económico Europeo (EEE).
La DPC pretende examinar si Google ha evaluado adecuadamente el impacto del uso de datos personales para entrenar su modelo de IA.
Con ello, la DPC pretende examinar si Google ha evaluado adecuadamente el impacto del uso de datos personales para entrenar su modelo de IA. La DPIA es una herramienta clave dentro del marco del GDPR, que tiene como objetivo identificar y mitigar los posibles riesgos relacionados con el tratamiento de datos personales, en particular cuando el uso de tecnologías avanzadas, como la inteligencia artificial, puede afectar de manera significativa a los usuarios.
“La Evaluación de Impacto en la Protección de Datos es crucial para garantizar que los derechos fundamentales de las personas sean adecuadamente considerados y protegidos cuando el tratamiento de datos personales conlleva un alto riesgo”, apunta la DPC en su comunicado.
Esta investigación se inscribe en un contexto más amplio de creciente escrutinio regulador sobre el uso de datos personales en la formación de modelos de IA. Según la DPC, la investigación sobre Google forma parte de sus “esfuerzos más amplios para regular el procesamiento de datos personales de los usuarios de la UE y del EEE en el desarrollo de modelos y sistemas de IA”.
La IA en el foco de la protección de datos
Este caso de Google no es el primero que pone a prueba el cumplimiento de las grandes tecnológicas con las regulaciones europeas de protección de datos. En agosto de 2024, la red social X, propiedad de Elon Musk, fue objeto de una investigación después de que se modificaran sus configuraciones de privacidad, exigiendo a los usuarios de la UE optar por no participar en la recopilación de sus publicaciones públicas para entrenar su modelo de IA Grok. Tras una acción legal por parte de la DPC, X accedió a detener permanentemente el uso de datos personales de los usuarios europeos con fines de entrenamiento de IA.
De forma similar, Meta suspendió en julio de 2024 el despliegue de su propio modelo de inteligencia artificial en Europa, citando la incertidumbre regulatoria en la región. La empresa enfrentó varias quejas, incluyendo una presentada por la organización de defensa de la privacidad NOYB, que planteaba preocupaciones sobre el uso indebido de los datos personales de los consumidores.