La inteligencia artificial ya no depende únicamente de fabricar chips más potentes. En este sentido, las tres grandes tecnológicas, junto a otros actores de la industria, han lanzado Multipath Reliable Connection (MRC), un nuevo protocolo diseñado específicamente para infraestructuras de inteligencia artificial a gran escala. La tecnología pasará además a formar parte del ecosistema abierto del Open Compute Project (OCP), una iniciativa que busca acelerar el desarrollo de estándares abiertos para centros de datos y computación avanzada.
El anuncio refleja un cambio importante dentro de la industria tecnológica. Hasta ahora, gran parte de la atención se centraba en los modelos de IA y en la capacidad de cálculo de los chips. Sin embargo, el crecimiento exponencial de estos sistemas está provocando nuevos problemas relacionados con la conectividad y la sincronización entre procesadores.
Los modelos de inteligencia artificial más avanzados necesitan enormes cantidades de GPUs trabajando simultáneamente y compartiendo datos de forma constante. Cuando alguno de esos enlaces falla o experimenta congestión, el impacto afecta al rendimiento de todo el sistema. AMD resume el problema con claridad: “A esta escala, la red determina directamente cuánto cálculo puede utilizarse realmente”.
En lugar de enviar toda la información por un solo camino, el protocolo distribuye el tráfico simultáneamente a través de múltiples rutas
Los protocolos tradicionales basados en una única ruta de transmisión comienzan a mostrar limitaciones evidentes en este tipo de entornos. MRC plantea una alternativa distinta ya que en lugar de enviar toda la información por un solo camino, el protocolo distribuye el tráfico simultáneamente a través de múltiples rutas.
De este modo, la red puede evitar puntos de congestión, reducir variaciones de latencia y reaccionar rápidamente ante fallos sin necesidad de interrumpir las cargas de trabajo. Según AMD, el sistema funciona como una especie de “amortiguador” capaz de mantener la estabilidad incluso en infraestructuras sometidas a enorme presión computacional.
La iniciativa deja entrever hasta qué punto OpenAI, Microsoft y el resto del sector preparan ya la siguiente generación de modelos de inteligencia artificial. El tamaño y complejidad de estas plataformas obliga a replantear toda la infraestructura técnica que las sostiene. Krishna Doddapaneni, vicepresidente corporativo de AMD, asegura que “el verdadero cuello de botella para escalar la IA es la red” y define MRC como “un gran paso adelante para la industria”.
El fabricante de chips también ha confirmado que la tecnología ya se ha implementado y probado a gran escala junto a un importante proveedor cloud, aunque no ha revelado públicamente el nombre de la compañía implicada. La empresa insiste en que no se trata de un desarrollo teórico, sino de una solución validada bajo cargas reales de inteligencia artificial.