Noticias Tecnología

UNICEF alerta del auge de imágenes sexualizadas de menores generadas por IA

Antonio Rodríguez | Viernes 06 de febrero de 2026
UNICEF advierte de un incremento acelerado de deepfakes sexuales con niños y niñas y reclama cambios legales urgentes, responsabilidades para las plataformas digitales y salvaguardas obligatorias en los sistemas de inteligencia artificial.

La expansión de la inteligencia artificial generativa ha abierto un nuevo frente en la protección de la infancia. UNICEF ha lanzado una contundente advertencia ante el rápido aumento de imágenes sexualizadas de menores creadas o manipuladas mediante IA, un fenómeno que ya no se limita a casos aislados y que, según los datos disponibles, afecta a millones de niños y niñas en todo el mundo. La organización subraya que se trata de una amenaza real, de alcance global y con consecuencias directas sobre la seguridad y el bienestar infantil.

El foco de preocupación se sitúa en el uso de técnicas conocidas como deepfakes, contenidos visuales, sonoros o audiovisuales generados o alterados con inteligencia artificial para simular realismo. Estas herramientas se emplean cada vez con mayor frecuencia para producir material sexualizado que involucra a menores, incluso a partir de fotografías reales modificadas sin consentimiento.

La magnitud de una amenaza en expansión

Según explica UNICEF, una de las prácticas más alarmantes es la llamada “nudificación”, mediante la cual sistemas de IA alteran imágenes para eliminar o modificar la ropa y generar representaciones falsas de desnudez o contenido sexual. Este tipo de manipulación se apoya en modelos generativos cada vez más accesibles y fáciles de usar, lo que multiplica el riesgo de abuso.

Al menos 1,2 millones de menores reconocieron que sus imágenes fueron manipuladas para crear deepfakes sexualizados en el último año

Un estudio conjunto de UNICEF, ECPAT e INTERPOL realizado en 11 países confirma la dimensión del problema. Al menos 1,2 millones de menores reconocieron que sus imágenes fueron manipuladas para crear deepfakes sexualizados en el último año. En algunos de los países analizados, esta cifra equivale a uno de cada 25 niños, una proporción que la organización compara con “un menor por aula” en una clase estándar.

La percepción del riesgo entre los propios niños también resulta significativa. En varios de los países estudiados, hasta dos tercios de los menores manifestaron su preocupación ante la posibilidad de que la IA se utilice para crear imágenes o vídeos sexuales falsos. UNICEF señala que estas diferencias de percepción entre regiones ponen de relieve la necesidad de reforzar la concienciación y las medidas de prevención.

Deepfakes sexuales: abuso real, daño real

La organización es clara en su posicionamiento: las imágenes sexualizadas de menores generadas o manipuladas con inteligencia artificial constituyen material de abuso sexual infantil. “El abuso mediante deepfakes es abuso, y no hay nada falso en el daño que causa”, advierte UNICEF en su declaración.

Incluso en los casos en los que no existe una víctima identificable, la creación de este tipo de contenidos contribuye a normalizar la explotación sexual infantil

Cuando se utiliza la imagen o la identidad de un niño concreto, ese menor sufre una victimización directa, con efectos psicológicos y sociales duraderos. Incluso en los casos en los que no existe una víctima identificable, la creación de este tipo de contenidos contribuye a normalizar la explotación sexual infantil y a alimentar la demanda de material abusivo. Además, complica de forma significativa el trabajo de las fuerzas de seguridad, que encuentran mayores dificultades para identificar a las víctimas reales y prestarles ayuda.

En este sentido, UNICEF reconoce los avances de algunos desarrolladores de inteligencia artificial que han incorporado principios de seguridad desde el diseño y barreras técnicas para evitar usos indebidos. No obstante, alerta de un panorama desigual, con numerosos modelos que todavía carecen de salvaguardas suficientes. El riesgo se agrava cuando estas herramientas se integran directamente en plataformas de redes sociales, donde la difusión de imágenes manipuladas puede producirse a gran velocidad.

Ante este escenario, la organización plantea una serie de medidas urgentes. En primer lugar, reclama que los gobiernos amplíen las definiciones legales de material de abuso sexual infantil para incluir expresamente el contenido generado por IA y que criminalicen su creación, posesión y distribución. Asimismo, insta a los desarrolladores a implantar protecciones sólidas que impidan el uso de sus sistemas con fines abusivos.

En paralelo, UNICEF exige a las empresas digitales un papel más activo. La prevención debe situarse por delante de la mera retirada de contenidos tras una denuncia. Para ello, la organización considera imprescindible reforzar la moderación con inversiones en tecnologías de detección que permitan eliminar este material de forma inmediata, sin demoras de días tras el aviso de una víctima o su representante.

TEMAS RELACIONADOS:


Noticias relacionadas