## NVIDIA Rubin plataforma oficial: custo de inferência reduzido 10 vezes, GPU reduzida 4 vezes, entrega na segunda metade de 2026



A NVIDIA anunciou oficialmente na CES 2025 a próxima geração de seu produto de destaque, a plataforma Rubin, para chips de IA, continuando sua tradição de atualizações anuais. Segundo o CEO Jensen Huang durante o evento, os seis principais chips da Rubin retornaram da fábrica de foundry e passaram por testes críticos, confirmando sua implantação conforme o planejado. Isso significa que a NVIDIA mantém sua liderança tecnológica no campo dos aceleradores de IA, ao mesmo tempo que responde às preocupações de Wall Street sobre a pressão competitiva e a continuidade dos investimentos em IA.

### desempenho em alta, custos significativamente reduzidos

No que diz respeito ao preço da Rubin, embora a NVIDIA ainda não tenha divulgado valores específicos, sua relação custo-benefício foi significativamente aprimorada. Em comparação com a plataforma Blackwell anterior, o desempenho de treinamento da Rubin aumentou 3,5 vezes, e o desempenho de inferência cresceu 5 vezes. Ainda mais impressionante, a Rubin consegue reduzir o custo de geração de tokens durante a inferência em 10 vezes — o que significa uma redução drástica nos custos operacionais para empresas que dependem de inferência de grandes modelos.

Além disso, a Rubin reduziu em 4 vezes a quantidade de GPUs necessárias para treinar modelos de especialistas híbridos(MoE). Isso permite que as empresas alcancem os mesmos objetivos de desempenho com menos hardware, melhorando diretamente o retorno sobre o investimento em compras.

### pilares de inovação tecnológica

A plataforma Rubin integra cinco tecnologias revolucionárias. Entre elas, o novo CPU Vera usa 88 núcleos personalizados Olympus, baseado na arquitetura Armv9.2, com desempenho por núcleo duas vezes maior que soluções concorrentes. Este CPU foi especialmente otimizado para inferência de agentes de IA, sendo atualmente uma das opções mais eficientes em termos de energia em fábricas de IA em larga escala.

Na GPU, há o terceiro motor Transformer, oferecendo 50 petaflops de capacidade de cálculo NVFP4. A largura de banda de uma única GPU atinge 3,6TB/s, enquanto o gabinete completo Vera Rubin NVL72 chega a 260TB/s — esse nível de largura de banda fornece fluxo de dados suficiente para treinamento e inferência de modelos em grande escala.

A plataforma também incorpora o motor de computação confidencial de terceira geração e o motor de confiabilidade, disponibilidade e manutenção (RAS) de segunda geração(, abrangendo CPU, GPU e NVLink, oferecendo monitoramento de saúde em tempo real, mecanismos de tolerância a falhas e manutenção proativa. O design modular do gabinete acelera a montagem e manutenção em 18 vezes em relação ao Blackwell.

) nova escolha para provedores de nuvem e laboratórios de IA

A NVIDIA anunciou que várias empresas, incluindo os principais provedores de infraestrutura de nuvem do setor, irão implantar as primeiras instâncias Rubin na segunda metade de 2026. Esses provedores de nuvem e integradores oferecerão serviços de aluguel de capacidade de computação Rubin para clientes empresariais.

No campo de desenvolvimento de modelos de IA, laboratórios renomados como OpenAI, Anthropic, Meta, Mistral AI e xAI já declararam que usarão a plataforma Rubin para treinar a próxima geração de modelos maiores e mais potentes. O CEO da OpenAI, Sam Altman, afirmou que o aumento na capacidade de cálculo impulsiona diretamente a evolução dos agentes inteligentes, e as vantagens de desempenho da plataforma Rubin continuarão a impulsionar esse processo. Dario Amodei, CEO da Anthropic, destacou que as melhorias do Rubin trazem avanços significativos na qualidade de inferência e confiabilidade dos modelos. Mark Zuckerberg, CEO do Meta, enfatizou que a eficiência aprimorada da plataforma Rubin é crucial para implantar os modelos de IA mais avançados para bilhões de usuários ao redor do mundo.

### estratégia de toda a cadeia de valor

Fabricantes de hardware de servidores como Cisco, Dell, HPE, Lenovo e Supermicro já planejaram linhas de produtos de servidores relacionados ao Rubin. Isso indica que o Rubin não é apenas uma inovação em GPU, mas um impulso para a atualização de todo o ecossistema de infraestrutura de IA.

A NVIDIA optou por divulgar detalhes do Rubin mais cedo do que o habitual neste ano, como uma estratégia para manter a dependência da indústria e o interesse do mercado. Normalmente, a empresa realiza uma apresentação aprofundada na conferência GTC na Califórnia na primavera, mas esta divulgação antecipada na CES reflete o cenário de mercado com maior competição em IA.

### visão de longo prazo

Embora o setor de investimentos ainda tenha dúvidas sobre o crescimento contínuo da NVIDIA e a sustentabilidade dos gastos em IA, a empresa mantém suas previsões de crescimento de longo prazo e espera que o mercado global de IA atinja dezenas de trilhões de dólares. O lançamento da plataforma Rubin marca a continuidade da liderança da NVIDIA na evolução dos chips de IA, além de redefinir a competitividade do Rubin cena em relação ao custo-benefício, influenciando as decisões de investimento em infraestrutura de IA das empresas.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)