Aplicaciones

El Gobierno pide investigar a X, Meta y TikTok por IA y pornografía infantil

Pedro Sánchez, presidente del Gobierno de España (Foto: Pool Moncloa /Borja Puig de la Bellacasa).
Antonio Rodríguez | Martes 17 de febrero de 2026
El Consejo de Ministros ha invocado el artículo 8 del Estatuto Orgánico del Ministerio Fiscal para solicitar a la Fiscalía que investigue si X, Meta y TikTok podrían estar incurriendo en delitos relacionados con la creación y difusión de pornografía infantil a través de sus herramientas de IA.

El anuncio lo ha realizado el propio presidente del Gobierno, Pedro Sánchez, a través de un mensaje en la red social X antes de la reunión del Gabinete. En ese mensaje ha afirmado que “estas plataformas están atentando contra la salud mental, la dignidad y los derechos de nuestros hijos e hijas. El Estado no lo puede permitir. La impunidad de los gigantes debe acabar”. Con esta declaración, el Ejecutivo formaliza una escalada en su estrategia frente a los que ha denominado “tecnooligarcas”, concepto que el propio presidente ha utilizado en las últimas semanas para referirse a grandes compañías digitales.

El Gobierno quiere esclarecer si existe responsabilidad penal derivada del uso de herramientas capaces de producir contenido de pornografía infantil

La petición del Ejecutivo persigue que la Fiscalía analice si determinadas funcionalidades de inteligencia artificial disponibles en estas plataformas pueden facilitar la generación o difusión de material ilícito. En concreto, el Gobierno quiere esclarecer si existe responsabilidad penal derivada del uso de herramientas capaces de producir contenido de pornografía infantil o de permitir su circulación en entornos digitales de gran alcance.

En España, el Código Penal contempla penas específicas para la producción, posesión y distribución de pornografía infantil, así como para el empleo de tecnologías que faciliten su elaboración. La eventual investigación deberá determinar si las plataformas han adoptado medidas suficientes de prevención y control o si, por el contrario, concurren indicios de delito.

La Fiscalía será ahora la encargada de valorar si procede la apertura de diligencias y si existen bases jurídicas para iniciar actuaciones formales contra las compañías o contra los responsables de sus sistemas de IA.

Antecedentes en España y Europa

La decisión del Consejo de Ministros se produce apenas un mes después de que la ministra de Juventud e Infancia, Sira Rego, remitiera un escrito a la Fiscalía General del Estado para solicitar que investigara a la inteligencia artificial de X, Grok, por presuntos delitos de difusión de material de violencia sexual contra la infancia.

Según el ministerio, distintos medios habían informado de que Grok generó, a petición de usuarios, material de violencia sexual contra menores. En su escrito, Rego señaló que estas prácticas podrían encajar en el artículo 189 del Código Penal, relativo a pornografía infantil, y en el artículo 173, sobre delitos contra la integridad moral. La ministra afirmó que “estamos ante una vulneración de derechos fundamentales” y defendió que la Fiscalía debía “analizar estos hechos gravísimos e impulsar las actuaciones necesarias para garantizar la protección de la infancia también en internet”.

El documento remitido por el ministerio también aludía a la sentencia del Juzgado de Menores de Badajoz 86/2024, de 20 de junio, que condenó a varias personas por utilizar inteligencia artificial para manipular imágenes de niñas y adolescentes. Esa resolución reconoció estas prácticas como una forma de violencia digital y como delito de pornografía infantil.

En paralelo, el Gobierno francés anunció recientemente una denuncia contra la misma IA generativa de X por permitir la creación y difusión de contenidos de carácter sexista y sexual manifiestamente ilegal, incluidos deepfakes sin consentimiento. Las autoridades francesas vincularon la denuncia a la avalancha de imágenes y vídeos generados a finales de diciembre en los que usuarios solicitaban desnudos falsos de mujeres sin autorización.

Por su parte, a comienzos de año, Grok reconoció públicamente que en su plataforma se publicaron imágenes sexualizadas de menores generadas con su tecnología. La propia IA admitió la existencia de “lapsos en las salvaguardas” y aseguró que la empresa desarrolladora, xAI, trabaja para corregirlos con urgencia. Asimismo, recordó que bajo la legislación federal estadounidense una empresa puede afrontar sanciones si facilita o no impide material de abuso sexual infantil generado mediante IA tras haber sido alertada.

TEMAS RELACIONADOS:


Noticias relacionadas