Huawei ha mostrado un nuevo avance en el desarrollo de modelos de lenguaje extensos (LLM) que desafía directamente las restricciones tecnológicas impuestas por Estados Unidos.
En un informe, el equipo de investigación en inteligencia artificial de la compañía china asegura haber perfeccionado la técnica de Mixture of Experts (MoE), ampliamente utilizada en el entrenamiento de modelos generativos, mediante una variante denominada Mixture of Grouped Experts (MoGE), optimizada para ejecutarse en sus propios chips Ascend.
El enfoque MoGE soluciona las ineficiencias de carga y coordinación que presenta el método MoE tradicional
El modelo Pangu Pro MoE, con 72.000 millones de parámetros, ha sido el banco de pruebas para validar esta nueva arquitectura. Según los investigadores, el enfoque MoGE soluciona las ineficiencias de carga y coordinación que presenta el método MoE tradicional, permitiendo una asignación más equilibrada de tareas entre expertos y un uso más eficiente del hardware. Esta innovación se ha logrado ejecutando el modelo sobre las unidades de procesamiento neuronal Ascend, desarrolladas internamente por Huawei, lo que refuerza su independencia tecnológica en un contexto de crecientes restricciones.
En términos comparativos, el nuevo modelo supera en rendimiento a soluciones open source de referencia como GLM-Z1-32B (de Z.ai) y Qwen3-32B (de Alibaba), situándose como uno de los líderes del sector en el rango sub-100B de parámetros. Estas mejoras en eficiencia y rendimiento representan un hito técnico, pero también subrayan la capacidad de China para sostener una evolución autónoma de su ecosistema de IA frente al cerco tecnológico de Washington.
Un desarrollo estratégico en plena tensión geopolítica
Desde que en 2019 Estados Unidos vetase a Huawei para importar chips avanzados y acceder a tecnologías clave de diseño y fabricación de semiconductores, la compañía ha redoblado sus esfuerzos en el diseño de hardware propietario. La reciente afirmación del CEO de Nvidia, Jensen Huang, de que los chips chinos han reducido notablemente la brecha tecnológica respecto a sus equivalentes estadounidenses —citando a los nuevos chips de Huawei como comparables al H200— refuerza esta narrativa.
En paralelo, el surgimiento de plataformas como DeepSeek, que en enero sorprendió al sector al lanzar un LLM competitivo en costes y rendimiento, ha intensificado la percepción de que el modelo de contención estadounidense está comenzando a erosionarse. El ejemplo de Huawei con MoGE parece confirmar esta tendencia: pese a las sanciones, la innovación continúa y se adapta.
Soberanía digital y escalabilidad
Esta mejora técnica beneficia al rendimiento computacional, pero también a la eficiencia energética del entrenamiento y la inferencia
El informe también resalta que esta mejora técnica beneficia al rendimiento computacional, pero también a la eficiencia energética del entrenamiento y la inferencia. En un momento en que el sector tecnológico enfrenta críticas por el aumento en las emisiones de carbono derivadas del uso masivo de centros de datos, soluciones como MoGE contribuyen a un ecosistema más sostenible, especialmente en contextos donde el acceso a energía es limitado o caro.
Huawei ya había lanzado anteriormente modelos Pangu para aplicaciones en telecomunicaciones, descubrimiento farmacéutico y predicción meteorológica. Esta ampliación de su capacidad en LLM refuerza su intención de competir globalmente también en el ámbito de la inteligencia artificial generativa.
La apuesta de Huawei por la IA de código abierto, sumada a su autonomía en hardware, supone un nuevo revés para la política comercial de Estados Unidos.