La investigación llega tras la aparición de evidencias que apuntan a la posible circulación de material ilegal en la plataforma, así como a riesgos relacionados con el uso de servicios de chat por parte de depredadores para contactar con menores. En este contexto, Ofcom también ha iniciado actuaciones contra otras plataformas como Teen Chat y Chat Avenue para evaluar su capacidad de prevención frente a prácticas de grooming.
La Online Safety Act obliga a las plataformas digitales a identificar, mitigar y eliminar con rapidez los contenidos ilegales, entre ellos el material de abuso sexual infantil. Asimismo, exige implementar mecanismos eficaces para reducir el riesgo de exposición de los usuarios, especialmente menores.
“Estas empresas deben hacer más para proteger a los niños o enfrentarse a consecuencias graves bajo la Online Safety Act”
Según ha señalado Suzanne Cater, directora de cumplimiento de Ofcom, “estas empresas deben hacer más para proteger a los niños o enfrentarse a consecuencias graves bajo la Online Safety Act”. En este sentido, el regulador dispone de competencias para imponer sanciones que pueden alcanzar los 18 millones de libras o el 10% de los ingresos globales de una compañía, además de solicitar medidas judiciales que podrían limitar el acceso a los servicios en Reino Unido.
La apertura de una investigación no implica, en esta fase, una conclusión sobre incumplimientos. El proceso contempla una recopilación de pruebas y un análisis detallado antes de emitir una decisión provisional. Posteriormente, la empresa afectada dispone de la oportunidad de responder antes de una resolución definitiva, en un procedimiento que puede prolongarse durante varios meses.
En este sentido, desde Telegram niegan "categóricamente" las acusaciones de Ofcom. "Desde 2018, Telegram ha prácticamente eliminado la difusión pública de material de abuso sexual infantil en su plataforma gracias a algoritmos de detección de vanguardia y a la colaboración con ONG. Nos sorprende esta investigación y nos preocupa que pueda formar parte de un ataque más amplio contra las plataformas en línea que defienden la libertad de expresión y el derecho a la privacidad".
El caso de Telegram vuelve a situar en el centro del debate la dificultad de moderar contenidos en servicios que combinan espacios públicos con mensajería privada cifrada. Mientras que los canales y grupos abiertos permiten cierto grado de supervisión mediante herramientas externas, las comunicaciones privadas presentan limitaciones técnicas para la detección de contenidos ilícitos.
Esta dualidad ha generado tensiones regulatorias durante años. Por un lado, la privacidad y el cifrado resultan esenciales para usuarios como periodistas o activistas. Por otro, estas mismas características pueden dificultar la identificación de actividades delictivas.
En respuesta a estas preocupaciones, Telegram ha adoptado algunas medidas en los últimos años. En diciembre de 2024, la plataforma se incorporó a la Internet Watch Foundation (IWF) y se comprometió a desplegar herramientas de detección en espacios públicos, como sistemas de hash para identificar material ilegal conocido y tecnologías orientadas a bloquear contenidos generados mediante inteligencia artificial.
A pesar de estos avances, Ofcom ha considerado que existen motivos suficientes para analizar si el cumplimiento de las obligaciones legales resulta adecuado. La investigación marca un cambio de enfoque, ya que el regulador intensifica su supervisión sobre plataformas de mensajería de gran escala.
Este movimiento se enmarca dentro de una estrategia más amplia de control del entorno digital en Reino Unido. Desde la entrada en vigor de la Online Safety Act en 2025, Ofcom ha abierto investigaciones sobre cerca de un centenar de servicios y ha impuesto varias sanciones. Además, ha requerido información adicional a grandes plataformas como Facebook, Instagram, TikTok o YouTube para reforzar las medidas de protección infantil.
Asimismo, el regulador mantiene en curso otras investigaciones relevantes, como la iniciada contra X en enero de 2026 por el uso de su chatbot para generar contenido ilegal. En este contexto, la actuación contra Telegram amplía el foco hacia servicios de mensajería que, hasta ahora, habían estado menos expuestos a medidas coercitivas.