Tecnología

Microsoft refuerza Azure con Maia 200, su nuevo acelerador de IA orientado a la inferencia

Antonio Rodríguez | Lunes 26 de enero de 2026
Microsoft presenta Maia 200, un acelerador de inteligencia artificial diseñado para mejorar el rendimiento y la eficiencia de la inferencia a gran escala en Azure, con impacto directo en servicios como Copilot y modelos avanzados de OpenAI.

Maia 200 se integra en la arquitectura de Azure y se perfila como una pieza clave para sostener el crecimiento de servicios basados en IA generativa y modelos fundacionales cada vez más exigentes.

Este chip está concebido desde su origen como un acelerador orientado a la inferencia, es decir, a la fase de ejecución y generación de resultados de los modelos de inteligencia artificial. Fabricado con el proceso de 3 nanómetros de TSMC, cada chip integra más de 140.000 millones de transistores y combina núcleos tensoriales nativos en precisión FP8 y FP4. Según Microsoft, esta arquitectura permite superar los 10 petaFLOPS en FP4 y los 5 petaFLOPS en FP8, todo ello dentro de un consumo máximo de 750 vatios por sistema en chip.

El diseño incorpora además un subsistema de memoria rediseñado, con 216 GB de memoria HBM3e capaces de alcanzar hasta 7 TB/s de ancho de banda, junto con 272 MB de SRAM integrada. Esta combinación busca eliminar cuellos de botella en el suministro de datos a los modelos, un factor crítico para aumentar el rendimiento efectivo en la generación de tokens y reducir la latencia en cargas de trabajo de gran tamaño.

Ventaja competitiva en eficiencia y costes

Uno de los ejes centrales de Maia 200 es la mejora del rendimiento por dólar, un indicador clave en la operación de infraestructuras de IA a escala de nube. Microsoft afirma que el nuevo acelerador ofrece una mejora del 30% en rendimiento por coste frente al hardware más reciente actualmente desplegado en su flota de centros de datos.

Asimismo, la compañía sostiene que Maia 200 alcanza un nivel de eficiencia superior al de otras soluciones de silicio propias de grandes proveedores cloud, con un rendimiento FP4 que triplica al de la tercera generación de Amazon Trainium y un rendimiento FP8 que supera al de la séptima generación de Google TPU.

En el plano de sistemas, Maia 200 introduce una red de interconexión de dos niveles basada en Ethernet estándar, apoyada por una capa de transporte personalizada y una tarjeta de red integrada. Este enfoque permite escalar clústeres de inferencia hasta 6.144 aceleradores con operaciones colectivas predecibles y alto rendimiento, reduciendo al mismo tiempo el consumo energético y el coste total de propiedad en los centros de datos de Azure.

Integración con Azure y el ecosistema de modelos

Maia 200 forma parte de una infraestructura heterogénea que dará soporte a múltiples modelos y servicios estratégicos de Microsoft. Entre ellos se incluyen las versiones más recientes de los modelos GPT de OpenAI, así como aplicaciones como Microsoft 365 Copilot. Además, el equipo de Superinteligencia de Microsoft utilizará este acelerador para la generación de datos sintéticos y tareas de aprendizaje por refuerzo, con el objetivo de mejorar modelos desarrollados internamente.

Disponibilidad

El despliegue inicial de Maia 200 ya ha arrancado en la región US Central de Azure, cerca de Des Moines (Iowa), y se ampliará próximamente a la región US West 3, en las proximidades de Phoenix (Arizona), con planes de expansión a otras ubicaciones.

TEMAS RELACIONADOS:


Noticias relacionadas