Tecnología

Nvidia lanza Vera Rubin, su nueva plataforma para impulsar fábricas de IA a gran escala

Antonio Rodríguez | Martes 17 de marzo de 2026
Nvidia ha presentado Vera Rubin, una nueva plataforma de infraestructura diseñada para acelerar el desarrollo y despliegue de inteligencia artificial a gran escala.

Anunciada durante la conferencia GTC 2026, la solución se plantea como un superordenador orientado a las denominadas “fábricas de IA”, un concepto que define centros de datos capaces de entrenar, escalar y operar modelos avanzados de forma continua.

De este modo, la plataforma Vera Rubin representa un cambio en la forma de construir infraestructura de inteligencia artificial. En lugar de sistemas basados en componentes independientes, Nvidia apuesta por una arquitectura completamente integrada en la que múltiples racks funcionan como un único sistema coherente. En este sentido, Jensen Huang, fundador y CEO de Nvidia, ha definido la plataforma como “un salto generacional” que combina siete chips y cinco racks en un superordenador unificado capaz de cubrir todas las fases de la IA.

La solución integra la CPU Vera, la GPU Rubin, el conmutador NVLink 6, la tarjeta de red ConnectX-9 SuperNIC, la DPU BlueField-4 y el switch Ethernet Spectrum-6, además del acelerador de inferencia Groq 3, un conjunto que permite abordar desde el preentrenamiento de modelos a gran escala hasta la inferencia en tiempo real para sistemas basados en agentes.

De este modo, la plataforma responde a una tendencia creciente en el sector: el paso de servidores individuales a sistemas a escala de rack y despliegues tipo POD, capaces de gestionar cargas de trabajo cada vez más complejas.

Rendimiento y eficiencia para modelos avanzados

Uno de los elementos clave de Vera Rubin es su capacidad para mejorar la eficiencia en el entrenamiento y ejecución de modelos de inteligencia artificial. La compañía señala que la plataforma permite entrenar modelos complejos con menos recursos y aumentar significativamente el rendimiento en tareas de inferencia.

En concreto, los racks NVL72 integran 72 GPU Rubin y 36 CPU Vera conectadas mediante NVLink 6, lo que permite reducir el número de GPU necesarias frente a generaciones anteriores. Asimismo, la combinación con aceleradores Groq 3 permite multiplicar el rendimiento en inferencia, especialmente en modelos de gran tamaño y sistemas basados en agentes. Este enfoque también busca optimizar el consumo energético. La tecnología DSX Max-Q permite desplegar hasta un 30% más de infraestructura de IA en centros de datos con capacidad energética fija, lo que mejora la eficiencia operativa.

Además, la arquitectura incluye soluciones específicas de almacenamiento y red. El sistema BlueField-4 STX permite gestionar grandes volúmenes de datos asociados a modelos de lenguaje, mientras que Spectrum-6 optimiza la conectividad entre racks con baja latencia y alta capacidad de transferencia.

Ecosistema y despliegue global

La nueva plataforma contará con el respaldo de un amplio ecosistema de socios tecnológicos. Los primeros productos basados en Vera Rubin estarán disponibles en la segunda mitad del año a través de proveedores de servicios en la nube como Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure.

Asimismo, compañías especializadas en infraestructura de IA como CoreWeave, Crusoe, Lambda, Nebius, Nscale o Together AI participarán en su despliegue. En paralelo, fabricantes como Cisco, Dell, HPE, Lenovo o Asus desarrollarán servidores basados en esta arquitectura.

TEMAS RELACIONADOS:


Noticias relacionadas