En las últimas semanas, investigadores y organizaciones especializadas en seguridad digital habían alertado de que Grok estaba aceptando solicitudes para manipular imágenes de personas reales, muchas de ellas mujeres, colocándolas en situaciones sexualizadas sin su consentimiento. En algunos casos, según estas investigaciones, las imágenes parecían representar a menores, lo que elevó aún más la gravedad del problema y aceleró la reacción de gobiernos y reguladores.
Desde el viernes, cuando un usuario intenta modificar o generar imágenes con Grok, el sistema responde con un mensaje que indica que estas funciones están “limitadas a los suscriptores de pago”. El acceso queda así restringido a los usuarios con cuenta premium en X, que abonan ocho dólares mensuales y cuentan con la conocida marca de verificación azul.
Aunque la compañía no ha hecho públicos los datos de uso del chatbot, sí se ha observado una reducción significativa en la aparición de deepfakes explícitos en comparación con días anteriores. No obstante, la herramienta de edición de imágenes seguía estando disponible para usuarios gratuitos a través de la web y la aplicación independiente de Grok, según pudo comprobar Associated Press.
“Esto no altera el problema de fondo. Sea con suscripción de pago o sin ella, no queremos ver este tipo de imágenes”
La reacción institucional no se ha hecho esperar. Desde la Comisión Europea, su portavoz Thomas Regnier fue tajante al valorar los cambios introducidos por la plataforma. “Esto no altera el problema de fondo. Sea con suscripción de pago o sin ella, no queremos ver este tipo de imágenes”, afirmó, después de que el Ejecutivo comunitario calificara previamente el comportamiento del chatbot como “ilegal” y “alarmante”.
Tampoco el Gobierno británico se mostró satisfecho. Un portavoz del primer ministro Keir Starmer calificó la decisión como “una no solución” y subrayó que resulta “insultante para las víctimas de misoginia y violencia sexual”. En su opinión, el hecho de que X haya actuado con rapidez demuestra que la plataforma tiene capacidad para hacerlo cuando lo considera oportuno. “Esperamos una respuesta inmediata. Todas las opciones están sobre la mesa”, añadió.
El propio Starmer había advertido días antes de que X debía retirar este tipo de contenidos de forma inmediata, calificándolos de inaceptables y dejando abierta la puerta a posibles acciones legales.
El caso de Grok ha activado mecanismos de supervisión en distintos países. Los reguladores de medios y privacidad del Reino Unido han solicitado información tanto a X como a la empresa de inteligencia artificial xAI sobre las medidas adoptadas para cumplir con la normativa vigente. Francia, India y Malasia también están examinando el funcionamiento del chatbot, mientras que en Brasil un legislador ha reclamado la apertura de una investigación formal.
En el ámbito europeo, la Comisión ha ordenado a X conservar todos los documentos internos y datos relacionados con Grok hasta finales de 2026, como parte de una investigación más amplia bajo la legislación comunitaria de seguridad digital.
Grok se lanzó en 2023 como un asistente conversacional integrado en X, accesible de forma gratuita para los usuarios de la plataforma. En el verano pasado incorporó un generador de imágenes, Grok Imagine, que incluía un modo denominado “spicy”, capaz de producir contenido adulto.
Elon Musk ha presentado Grok como una alternativa más provocadora y con menos restricciones que otros modelos del mercado
El problema, según expertos en ética y gobernanza de la inteligencia artificial, se agrava por dos factores clave. Por un lado, Elon Musk ha presentado Grok como una alternativa más provocadora y con menos restricciones que otros modelos del mercado. Por otro, las imágenes generadas son públicas y fácilmente compartibles, lo que facilita su difusión masiva y multiplica el daño potencial.
En este contexto, la polémica en torno a Grok reabre el debate sobre los límites de la inteligencia artificial generativa, la responsabilidad de las plataformas y la necesidad de marcos regulatorios más claros para proteger a las personas frente a abusos digitales cada vez más sofisticados.