Qualcomm ha dado un paso decisivo hacia el negocio de la inteligencia artificial generativa en los centros de datos con el lanzamiento de sus nuevas plataformas AI200 y AI250, dos soluciones optimizadas para la inferencia que prometen ofrecer un rendimiento por vatio y por dólar sin precedentes.
Con este movimiento, la compañía tradicionalmente asociada a procesadores móviles irrumpe en el mercado de los aceleradores de IA, hasta ahora dominado por Nvidia y AMD, y refuerza su ambición de convertirse en un actor relevante en la infraestructura global de cómputo para IA.
Las nuevas tarjetas aceleradoras y racks, basados en la arquitectura Hexagon NPU de la firma, se posicionan como el núcleo de una estrategia de crecimiento a largo plazo. La compañía ha confirmado que el AI200 llegará al mercado en 2026 y el AI250 en 2027, con el compromiso de mantener una hoja de ruta anual de innovaciones para centros de datos.
Arquitectura diseñada para la era de la inferencia
A diferencia de los chips destinados al entrenamiento de grandes modelos, Qualcomm ha centrado sus esfuerzos en la ejecución de inferencia, es decir, en el funcionamiento de los modelos ya entrenados.
El AI200 está pensado como una solución a nivel de rack para reducir el coste total de propiedad (TCO) y maximizar la eficiencia en el procesamiento de modelos de lenguaje y multimodales (LLM y LMM). Cada tarjeta admite 768 GB de memoria LPDDR, una cifra notablemente superior a la de la mayoría de las GPU de su categoría, lo que permite escalar aplicaciones generativas con un menor consumo energético y mayor capacidad de respuesta.
Por su parte, el AI250 introduce una arquitectura de memoria innovadora basada en near-memory computing, que incrementa más de 10 veces el ancho de banda efectivo frente a generaciones anteriores y mejora la eficiencia energética. Esta capacidad permite un enfoque de inferencia desagregada, en el que distintos módulos pueden operar de forma coordinada, ajustando el consumo y el rendimiento según las necesidades de cada cliente.
Ambos sistemas se ofrecerán en configuraciones de rack con refrigeración líquida directa, soporte para PCIe y Ethernet, y un consumo energético total de 160 kilovatios, comparable al de los sistemas de Nvidia diseñados para los grandes centros de datos de IA.
Un ecosistema de software abierto y modular
La compañía ha desarrollado un completo ecosistema de software empresarial, el Qualcomm AI Inference Suite, compatible con los principales marcos de aprendizaje automático y generativo
El salto de Qualcomm al segmento de la inteligencia artificial no se limita al hardware. La compañía ha desarrollado un completo ecosistema de software empresarial, el Qualcomm AI Inference Suite, compatible con los principales marcos de aprendizaje automático y generativo, como TensorFlow, PyTorch o Hugging Face.
El entorno incluye herramientas de despliegue en un solo clic, bibliotecas de transformadores optimizados y APIs específicas para acelerar modelos de lenguaje y visión multimodal. Este enfoque busca facilitar la adopción de las soluciones AI200 y AI250 por parte de desarrolladores y empresas que ya trabajan con modelos de IA generativa en entornos cloud o híbridos.
“Estamos redefiniendo lo que significa hacer inferencia a escala de rack. Con las plataformas AI200 y AI250, las organizaciones pueden desplegar IA generativa con una eficiencia y flexibilidad sin precedentes, sin comprometer la seguridad ni el rendimiento”, destaca Durga Malladi, vicepresidente sénior de Qualcomm y responsable de su división de Data Center & Edge Solutions.
Competencia directa con Nvidia y AMD
El anuncio marca la entrada de Qualcomm en uno de los mercados más dinámicos y rentables de la industria tecnológica: el de los chips para centros de datos especializados en IA. Según estimaciones de McKinsey, el sector absorberá 6,7 billones de dólares en inversión hasta 2030, impulsado por la expansión de los grandes modelos de lenguaje y las infraestructuras de nube generativa.
"Una vez fortalecidos ahí, escalar al nivel del data center fue un paso natural”
Hasta ahora, Nvidia ha mantenido un dominio casi absoluto con más del 90% de cuota, gracias a sus GPU H100 y H200 utilizadas para entrenar sistemas como ChatGPT. AMD ha ganado terreno con su línea Instinct MI300, mientras que gigantes como Google, Amazon y Microsoft han optado por desarrollar aceleradores propios. Con AI200 y AI250, Qualcomm se suma a esta nueva ola de competencia, apostando por un modelo de eficiencia energética y coste operativo reducido, aspectos cada vez más críticos para los proveedores de servicios cloud.
Malladi reconoce que el camino hacia el centro de datos ha sido gradual: “Primero quisimos demostrar nuestras capacidades en otros dominios. Una vez fortalecidos ahí, escalar al nivel del data center fue un paso natural”.
Arabia Saudí, el primer gran cliente
En paralelo al lanzamiento, Qualcomm ha anunciado una alianza estratégica con la empresa saudí HUMAIN para desplegar infraestructura avanzada de IA en Oriente Medio. El proyecto, presentado durante la Future Investment Initiative (FII) en Riad, prevé instalar hasta 200 megavatios de capacidad basada en los sistemas AI200 y AI250 a partir de 2026.
HUMAIN integrará los modelos lingüísticos ALLaM, desarrollados en el país, con las plataformas de Qualcomm
El objetivo es construir el primer ecosistema híbrido edge-to-cloud totalmente optimizado para inferencia de IA, convirtiendo a Arabia Saudí en un hub global de innovación en inteligencia artificial. HUMAIN integrará los modelos lingüísticos ALLaM, desarrollados en el país, con las plataformas de Qualcomm, ofreciendo servicios de inferencia a empresas y administraciones públicas de todo el mundo.
“Estamos ayudando al Reino a crear un ecosistema tecnológico que acelere su ambición de liderazgo en IA. Este proyecto demuestra cómo la combinación de infraestructura avanzada y eficiencia puede transformar economías enteras”, celebra Cristiano Amon, presidente y consejero delegado de Qualcomm.
Si la apuesta de Qualcomm prospera, el futuro del cómputo en los centros de datos podría volverse más diverso y competitivo, abriendo la puerta a una nueva fase en la carrera por dominar la infraestructura de la inteligencia artificial global.