El creciente uso de herramientas basadas en inteligencia artificial (IA) en España convive con una preocupación generalizada por la privacidad de los datos personales.
Así lo revela una reciente encuesta realizada por Luzia, el asistente personal de IA desarrollado en España, que recoge la percepción de los usuarios nacionales sobre la seguridad y el uso de su información en entornos digitales impulsados por esta tecnología.
Según los resultados del sondeo, cuatro de cada diez usuarios han dejado de utilizar una aplicación de inteligencia artificial debido a preocupaciones sobre cómo se manejaban sus datos personales. A ello se suma que el 78% se declara “bastante” o “muy” preocupado por su privacidad en este tipo de plataformas. Entre los temores más frecuentes se encuentran la imposibilidad de borrar o actualizar datos, el uso de información sin consentimiento, la difusión de imágenes personales o la explotación de datos con fines publicitarios.
El 80% de los participantes demanda que las políticas de privacidad sean más claras y comprensibles
Sin embargo, este nivel de preocupación contrasta con los hábitos de uso: casi la mitad de los encuestados reconoce que “nunca” o “casi nunca” lee las políticas de privacidad antes de utilizar un nuevo servicio, y solo un tercio lo hace “a veces”. Este desfase entre percepción y acción refleja un déficit de comprensión, ya que el 80% de los participantes demanda que las políticas de privacidad sean más claras y comprensibles.
“La encuesta impulsada por Luzia pone de manifiesto la necesidad urgente de aumentar la transparencia y simplicidad de la información personal”, destaca Pablo Delgado, portavoz de la compañía. Según explica, la clave está en generar confianza a través de prácticas responsables y comunicación clara sobre el uso de los datos.
Medidas insuficientes frente a una amenaza percibida
Otro dato relevante del estudio es que uno de cada cuatro usuarios no adopta medidas para proteger su privacidad, a pesar de la desconfianza generalizada. Entre quienes sí lo hacen, las prácticas más comunes son la reducción del uso de redes sociales, la eliminación de publicaciones y datos antiguos, y el cambio regular de contraseñas.
El 90% consideran que la inteligencia artificial no debería entrenarse con datos personales sin consentimiento explícito
Asimismo, más del 70% de los encuestados confiesa no conocer en profundidad la Ley de IA de la Unión Europea, aprobada en 2024 con el objetivo de garantizar un uso ético, seguro y transparente de estas tecnologías. A pesar de ello, nueve de cada diez consideran que la inteligencia artificial no debería entrenarse con datos personales sin consentimiento explícito en territorio comunitario.
En este contexto de creciente desconfianza, Luzia ha reiterado su compromiso con una IA centrada en la privacidad. El asistente, que ya cuenta con más de 70 millones de usuarios globales, procesa los mensajes de forma anónima, sin almacenar información ni utilizarla para entrenar su sistema. Además, implementa cifrado de extremo a extremo y asegura que no se comparten datos con terceros.