## NVIDIA Rubin plataforma oficial: reducción de costos de inferencia en 10 veces, GPU 4 veces más pequeñas, entrega en la segunda mitad de 2026
NVIDIA anunció oficialmente en CES 2025 la próxima generación de su importante producto de chips de IA, la plataforma Rubin, continuando con su tradición de actualizaciones anuales. Según lo anunciado en vivo por el CEO Jensen Huang, los seis chips principales de Rubin han regresado de la fábrica y han completado pruebas clave, confirmando que pueden desplegarse según lo planeado. Esto significa que NVIDIA mantiene su liderazgo tecnológico en el campo de los aceleradores de IA, al mismo tiempo que responde a las preocupaciones de Wall Street sobre la presión competitiva y la continuidad de las inversiones en IA.
### rendimiento en auge, costos significativamente reducidos
En cuanto a los precios de Rubin, aunque NVIDIA aún no ha divulgado cifras específicas, su relación costo-beneficio ha mejorado notablemente. En comparación con la plataforma Blackwell anterior, el rendimiento de entrenamiento de Rubin ha aumentado 3.5 veces, y el rendimiento de inferencia 5 veces. Lo más destacado es que Rubin puede reducir en 10 veces el costo de generación de tokens durante la inferencia — lo que para las empresas que dependen de inferencias de grandes modelos significa una reducción significativa en los costos operativos.
Además, Rubin reduce en 4 veces la cantidad de GPU necesarias para entrenar modelos híbridos de expertos(MoE). Esto permite a las empresas lograr los mismos objetivos de rendimiento con menos inversión en hardware, mejorando directamente el retorno de inversión en compras.
### pilares de innovación tecnológica
La plataforma Rubin integra seis tecnologías revolucionarias. Entre ellas, la nueva CPU Vera utiliza 88 núcleos Olympus personalizados, basada en la arquitectura Armv9.2, con un rendimiento por núcleo que duplica al de soluciones competidoras. Esta CPU está especialmente optimizada para inferencias de agentes de IA y es actualmente una de las opciones más eficientes en consumo en fábricas de IA a gran escala.
En el lado de GPU, cuenta con el tercer motor Transformer, que ofrece 50 petaflops de capacidad de cálculo NVFP4. La banda ancha de un solo GPU alcanza los 3.6TB/s, mientras que la cabina completa Vera Rubin NVL72 llega a 260TB/s — proporcionando suficiente capacidad de flujo de datos para entrenamiento e inferencia de modelos a gran escala.
La plataforma también incorpora el motor de computación confidencial de tercera generación y el motor de confiabilidad, disponibilidad y mantenibilidad (RAS) de segunda generación(, cubriendo CPU, GPU y NVLink en toda la pila, ofreciendo monitoreo de salud en tiempo real, mecanismos de tolerancia a fallos y funciones de mantenimiento activo. Todo el gabinete está diseñado de forma modular, con una velocidad de ensamblaje y mantenimiento 18 veces mayor que Blackwell.
) nueva opción para proveedores de servicios en la nube y laboratorios de IA
NVIDIA anunció que varias empresas, incluyendo los principales proveedores de infraestructura en la nube, desplegarán sus primeras instancias Rubin en la segunda mitad de 2026. Estos proveedores y integradores ofrecerán servicios de alquiler de capacidad de Rubin a clientes empresariales.
En el campo del desarrollo de modelos de IA, laboratorios reconocidos como OpenAI, Anthropic, Meta, Mistral AI y xAI han declarado que usarán la plataforma Rubin para entrenar modelos de próxima generación más grandes y potentes. El CEO de OpenAI, Sam Altman, afirmó que la mejora en capacidad de cálculo impulsa directamente la evolución de los agentes inteligentes, y que la ventaja de rendimiento de Rubin continuará impulsando este proceso. Dario Amodei, CEO de Anthropic, señaló que las capacidades mejoradas de Rubin aportan mejoras significativas en la calidad de inferencia y la fiabilidad de los modelos. Mark Zuckerberg, CEO de Meta, enfatizó que la eficiencia mejorada de Rubin es crucial para desplegar los modelos de IA más avanzados a miles de millones de usuarios en todo el mundo.
### despliegue completo en la cadena de suministro
Fabricantes de hardware de servidores como Cisco, Dell, HPE, Lenovo y Supermicro ya han planificado líneas de productos de servidores relacionados con Rubin. Esto indica que Rubin no es solo una innovación en GPU, sino un impulso para la actualización de todo el ecosistema de infraestructura de IA.
NVIDIA ha decidido adelantar la divulgación de detalles de Rubin en comparación con años anteriores, como parte de su estrategia para mantener la dependencia de la industria y el interés del mercado. Normalmente, la compañía realiza una presentación profunda en la conferencia GTC de California en primavera, pero esta revelación temprana en CES refleja la intensificación de la competencia en IA en el mercado actual.
### perspectiva a largo plazo
Aunque los inversores siguen teniendo dudas sobre el crecimiento sostenido de NVIDIA y la continuidad del gasto en IA, la compañía mantiene sus expectativas de crecimiento a largo plazo y prevé que el mercado global de IA alcanzará varios billones de dólares. El lanzamiento de la plataforma Rubin marca que NVIDIA continúa liderando la iteración de chips de IA, y también que la competitividad en costos de Rubin redefinirá las decisiones de inversión empresarial en infraestructura de IA.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
## NVIDIA Rubin plataforma oficial: reducción de costos de inferencia en 10 veces, GPU 4 veces más pequeñas, entrega en la segunda mitad de 2026
NVIDIA anunció oficialmente en CES 2025 la próxima generación de su importante producto de chips de IA, la plataforma Rubin, continuando con su tradición de actualizaciones anuales. Según lo anunciado en vivo por el CEO Jensen Huang, los seis chips principales de Rubin han regresado de la fábrica y han completado pruebas clave, confirmando que pueden desplegarse según lo planeado. Esto significa que NVIDIA mantiene su liderazgo tecnológico en el campo de los aceleradores de IA, al mismo tiempo que responde a las preocupaciones de Wall Street sobre la presión competitiva y la continuidad de las inversiones en IA.
### rendimiento en auge, costos significativamente reducidos
En cuanto a los precios de Rubin, aunque NVIDIA aún no ha divulgado cifras específicas, su relación costo-beneficio ha mejorado notablemente. En comparación con la plataforma Blackwell anterior, el rendimiento de entrenamiento de Rubin ha aumentado 3.5 veces, y el rendimiento de inferencia 5 veces. Lo más destacado es que Rubin puede reducir en 10 veces el costo de generación de tokens durante la inferencia — lo que para las empresas que dependen de inferencias de grandes modelos significa una reducción significativa en los costos operativos.
Además, Rubin reduce en 4 veces la cantidad de GPU necesarias para entrenar modelos híbridos de expertos(MoE). Esto permite a las empresas lograr los mismos objetivos de rendimiento con menos inversión en hardware, mejorando directamente el retorno de inversión en compras.
### pilares de innovación tecnológica
La plataforma Rubin integra seis tecnologías revolucionarias. Entre ellas, la nueva CPU Vera utiliza 88 núcleos Olympus personalizados, basada en la arquitectura Armv9.2, con un rendimiento por núcleo que duplica al de soluciones competidoras. Esta CPU está especialmente optimizada para inferencias de agentes de IA y es actualmente una de las opciones más eficientes en consumo en fábricas de IA a gran escala.
En el lado de GPU, cuenta con el tercer motor Transformer, que ofrece 50 petaflops de capacidad de cálculo NVFP4. La banda ancha de un solo GPU alcanza los 3.6TB/s, mientras que la cabina completa Vera Rubin NVL72 llega a 260TB/s — proporcionando suficiente capacidad de flujo de datos para entrenamiento e inferencia de modelos a gran escala.
La plataforma también incorpora el motor de computación confidencial de tercera generación y el motor de confiabilidad, disponibilidad y mantenibilidad (RAS) de segunda generación(, cubriendo CPU, GPU y NVLink en toda la pila, ofreciendo monitoreo de salud en tiempo real, mecanismos de tolerancia a fallos y funciones de mantenimiento activo. Todo el gabinete está diseñado de forma modular, con una velocidad de ensamblaje y mantenimiento 18 veces mayor que Blackwell.
) nueva opción para proveedores de servicios en la nube y laboratorios de IA
NVIDIA anunció que varias empresas, incluyendo los principales proveedores de infraestructura en la nube, desplegarán sus primeras instancias Rubin en la segunda mitad de 2026. Estos proveedores y integradores ofrecerán servicios de alquiler de capacidad de Rubin a clientes empresariales.
En el campo del desarrollo de modelos de IA, laboratorios reconocidos como OpenAI, Anthropic, Meta, Mistral AI y xAI han declarado que usarán la plataforma Rubin para entrenar modelos de próxima generación más grandes y potentes. El CEO de OpenAI, Sam Altman, afirmó que la mejora en capacidad de cálculo impulsa directamente la evolución de los agentes inteligentes, y que la ventaja de rendimiento de Rubin continuará impulsando este proceso. Dario Amodei, CEO de Anthropic, señaló que las capacidades mejoradas de Rubin aportan mejoras significativas en la calidad de inferencia y la fiabilidad de los modelos. Mark Zuckerberg, CEO de Meta, enfatizó que la eficiencia mejorada de Rubin es crucial para desplegar los modelos de IA más avanzados a miles de millones de usuarios en todo el mundo.
### despliegue completo en la cadena de suministro
Fabricantes de hardware de servidores como Cisco, Dell, HPE, Lenovo y Supermicro ya han planificado líneas de productos de servidores relacionados con Rubin. Esto indica que Rubin no es solo una innovación en GPU, sino un impulso para la actualización de todo el ecosistema de infraestructura de IA.
NVIDIA ha decidido adelantar la divulgación de detalles de Rubin en comparación con años anteriores, como parte de su estrategia para mantener la dependencia de la industria y el interés del mercado. Normalmente, la compañía realiza una presentación profunda en la conferencia GTC de California en primavera, pero esta revelación temprana en CES refleja la intensificación de la competencia en IA en el mercado actual.
### perspectiva a largo plazo
Aunque los inversores siguen teniendo dudas sobre el crecimiento sostenido de NVIDIA y la continuidad del gasto en IA, la compañía mantiene sus expectativas de crecimiento a largo plazo y prevé que el mercado global de IA alcanzará varios billones de dólares. El lanzamiento de la plataforma Rubin marca que NVIDIA continúa liderando la iteración de chips de IA, y también que la competitividad en costos de Rubin redefinirá las decisiones de inversión empresarial en infraestructura de IA.