Casi uno de cada cinco usuarios de entre 13 y 15 años informó a Meta de que había visto “desnudez o imágenes sexuales en Instagram” que no deseaba visualizar.
El dato figura en un documento judicial que se ha hecho público en el marco de una demanda federal en California por el impacto de las redes sociales en la salud mental de los menores y revisado por Reuters. La información procede de fragmentos de una declaración realizada en marzo de 2025 por el responsable de Instagram, Adam Mosseri.
El contenido se enmarca en el creciente escrutinio regulatorio y judicial sobre el impacto de las plataformas digitales en la salud mental de menores y la seguridad de los entornos sociales en línea.
Según el documento, la cifra sobre imágenes explícitas procede de una encuesta realizada a usuarios de Instagram acerca de su experiencia en la plataforma. Andy Stone, portavoz de Meta, ha precisado que el estudio se llevó a cabo en 2021 y que los resultados se basan en respuestas autodeclaradas, no en una revisión directa de publicaciones.
Alrededor del 8% de los usuarios de 13 a 15 años señaló que había visto a alguien autolesionarse o amenazar con hacerlo en Instagram
En su declaración, Mosseri ha afirmado que la compañía no comparte este tipo de resultados “en general” y ha añadido que las encuestas autodeclaradas son “notoriamente problemáticas”. Asimismo, ha indicado que la mayoría de las imágenes sexualmente explícitas se enviaron a través de mensajes privados entre usuarios. En este sentido, ha subrayado que Meta debe equilibrar la supervisión de contenidos con el respeto a la privacidad, ya que “muchas personas no quieren que leamos sus mensajes”.
Además del 19% que afirmó haber visto desnudos no deseados, alrededor del 8% de los usuarios de 13 a 15 años señaló que había visto a alguien autolesionarse o amenazar con hacerlo en Instagram, según la misma declaración judicial.
Contexto legal y presión regulatoria
Meta, matriz de Facebook e Instagram, se enfrenta actualmente a miles de demandas en tribunales federales y estatales de Estados Unidos. En ellas, las acusaciones sostienen que la compañía diseñó productos adictivos que contribuyen a una crisis de salud mental entre menores.
Para hacer frente a esta problemática, a finales de 2025, Meta comunicó que para usuarios adolescentes eliminaría imágenes y vídeos “que contengan desnudez o actividad sexual explícita, incluso cuando estén generados por inteligencia artificial”, con excepciones limitadas para contenidos médicos o educativos.
La compañía sostiene que continúa desarrollando herramientas de control y supervisión adaptadas a menores. “Estamos orgullosos del progreso que hemos logrado y siempre trabajamos para hacerlo mejor”, destaca Stone. Sin embargo, la tensión entre privacidad y seguridad permanece en el centro del debate.