Tecnología

Google Cloud lanza Ironwood, su nuevo TPU para liderar la era de la inferencia en inteligencia artificial

Antonio Rodríguez | Jueves 06 de noviembre de 2025
Google Cloud ha dado un paso decisivo en su estrategia de infraestructura de inteligencia artificial con la presentación de Ironwood, su séptima generación de Tensor Processing Units (TPU).

Este nuevo procesador, acompañado por una ampliación de la familia Axion de chips Arm, busca redefinir el rendimiento, la eficiencia y el coste de las cargas de trabajo de IA en un contexto donde la inferencia, y no el entrenamiento, marca ya el nuevo eje del desarrollo tecnológico.

La era de la inferencia: más allá del entrenamiento

Hasta hace poco, el foco de la industria se centraba en entrenar modelos cada vez más grandes y complejos. Sin embargo, la tendencia actual apunta a optimizar la inferencia, es decir, la fase en la que los modelos entrenados procesan información en tiempo real para generar respuestas o ejecutar tareas. Este cambio de paradigma está impulsando una alta demanda de capacidad de cómputo y de arquitecturas adaptadas a entornos distribuidos y basados en agentes.

En este escenario, Google Cloud busca posicionarse como proveedor de referencia. Con Ironwood, la compañía promete una arquitectura más potente, escalable y energéticamente eficiente, diseñada para sostener desde los modelos de última generación, como Gemini, Veo o Claude, de Anthropic, hasta aplicaciones de IA generativa y flujos autónomos basados en agentes.

Ofrece un rendimiento hasta diez veces superior al de la generación anterior (TPU v5p) y más de cuatro veces mayor por chip que la serie v6e

Ironwood estará disponible de forma general en las próximas semanas y representa, según la compañía, el mayor salto de rendimiento en la historia de sus TPUs. Ofrece un rendimiento hasta diez veces superior al de la generación anterior (TPU v5p) y más de cuatro veces mayor por chip que la serie v6e, además de una mejora sustancial en eficiencia energética.

Estas capacidades permiten ejecutar tareas de entrenamiento, inferencia y aprendizaje por refuerzo a gran escala con un consumo más optimizado. Anthropic, una de las compañías que probará Ironwood en producción, ha confirmado su intención de utilizar hasta un millón de TPUs para alimentar la expansión de sus modelos Claude.

La potencia del nuevo sistema se apoya en su Inter-Chip Interconnect (ICI), una red de interconexión que enlaza hasta 9.216 chips en un único pod con velocidades de 9,6 Tb/s, eliminando los tradicionales cuellos de botella en la comunicación entre procesadores. Además, Ironwood dispone de 1,77 petabytes de memoria HBM compartida, lo que permite mantener los modelos de IA más exigentes completamente cargados en memoria y acelerar los tiempos de inferencia.

A nivel de fiabilidad, el sistema incorpora tecnología de conmutación óptica (OCS) que redirige dinámicamente el tráfico en caso de interrupciones, asegurando la continuidad de las operaciones críticas con un nivel de disponibilidad cercano al 99,999%.

Ironwood se integra en el ecosistema AI Hypercomputer de Google Cloud, una arquitectura que combina computación, red, almacenamiento y software bajo un mismo marco de diseño. Este enfoque de cooptimización permite que hardware y software evolucionen de forma conjunta, reduciendo latencias, costes y consumo energético.

Axion, el refuerzo del cómputo general

Junto con Ironwood, Google ha anunciado la ampliación de su familia Axion, procesadores Arm diseñados para cargas de trabajo generales y auxiliares al entrenamiento de IA.

Las nuevas instancias N4A ofrecen hasta 64 vCPU, 512 GB de memoria DDR5 y 50 Gbps de conectividad, con una mejora de hasta el 100% en precio-rendimiento respecto a máquinas x86 equivalentes. Además, la compañía prepara el lanzamiento de C4A Metal, su primera versión bare-metal, pensada para entornos de desarrollo Android, automoción o simulación avanzada.

Entre las empresas que ya han probado esta infraestructura, Vimeo ha observado una mejora del 30% en rendimiento de transcodificación de vídeo, mientras que ZoomInfo reporta un aumento del 60% en eficiencia para sus procesos de análisis de datos. Estas cifras apuntan a una reducción directa de costes de cómputo y energía en infraestructuras a gran escala.

TEMAS RELACIONADOS:


Noticias relacionadas