La inteligencia artificial se ha integrado con rapidez en el entorno profesional, pero no siempre con la preparación adecuada. Un aspecto preocupante es que, mientras crece el uso de asistentes de IA para ganar eficiencia en el trabajo, la mayoría de las personas no es plenamente consciente de los riesgos de privacidad que conlleva esta práctica.
Según datos recopilados por NordVPN a lo largo de 2025, el 94% de los españoles no entiende qué implicaciones de privacidad debe tener en cuenta al utilizar herramientas de inteligencia artificial en su jornada laboral. Este desconocimiento se produce en un contexto en el que soluciones generativas se utilizan de forma habitual para redactar textos, analizar información o apoyar la toma de decisiones.
Hay que tener en cuenta que, a diferencia de una conversación tradicional entre compañeros, las interacciones con sistemas de IA pueden quedar registradas, almacenadas y reutilizadas, incluso para el entrenamiento de nuevos modelos. Pese a que muchas personas recurren a estas herramientas con fines productivos, la cesión involuntaria de datos personales, corporativos o estratégicos se ha convertido en un riesgo real.
Desde el punto de vista de los expertos, la adopción de la IA está avanzando más rápido que la concienciación sobre sus consecuencias. Marijus Briedis, director de tecnología de NordVPN, advierte de que los trabajadores comparten información sensible sin tener claro dónde termina almacenada, quién puede acceder a ella o con qué finalidad se utiliza. A su vez, esta práctica puede abrir brechas de privacidad difíciles de detectar a corto plazo.
Los riesgos no se limitan al entorno laboral. A su vez, la inteligencia artificial se ha convertido en una herramienta clave para los ciberdelincuentes, que la emplean para diseñar ataques cada vez más creíbles. En este sentido, casi la mitad de los españoles no es capaz de identificar estafas asistidas por IA, como la clonación de voz o los deepfakes.
Pese a que estas técnicas ya forman parte del panorama digital actual, el 46% de las personas reconoce no saber distinguirlas correctamente, lo que incrementa su vulnerabilidad. La capacidad de la IA para imitar voces, generar vídeos realistas o replicar páginas web legítimas ha elevado el nivel de sofisticación del fraude online.
Las consecuencias económicas tampoco son menores. Investigaciones previas de NordVPN indican que una de cada tres personas se ha encontrado con estafas digitales en los últimos dos años, y que casi la mitad de las víctimas llegó a perder dinero. En muchos casos, las cantidades superaron los 100 dólares, reflejando el impacto real de este tipo de ataques.
Todo apunta a que esta tendencia no se va a frenar. Los especialistas anticipan que los ataques impulsados por inteligencia artificial serán uno de los principales retos de ciberseguridad en 2026, con métodos cada vez más automatizados y accesibles para actores maliciosos con poca experiencia técnica.
Pese a que la IA ofrece oportunidades claras para mejorar la productividad y optimizar procesos, las personas siguen siendo el eslabón más vulnerable cuando no cuentan con la información y las herramientas adecuadas para protegerse.
En este contexto, los expertos insisten en la necesidad de usar la IA con criterio, evitar compartir información sensible, verificar cualquier solicitud inesperada y no dar por válida una comunicación solo porque parezca real. Hoy, más que nunca, ver y escuchar ya no es sinónimo de confiar.