Nvidia lidera em hardware de IA com os novos chips Rubin enquanto a corporação se prepara para testá-los com os seus clientes ainda este ano
ConteúdosRubin aproxima-se do teste com clientesEficiência e melhoria de desempenhoProvedores de cloud tornam as implementações prontasA introdução é uma indicação de que a Nvidia está a tentar consolidar ainda mais a sua dominância em computação de IA em data centers. Segundo a empresa, o novo hardware não só é mais rápido, mas também mais barato de operar e estará pronto a tempo.
A Nvidia também garantiu que todos os seis chips Rubin estavam de volta às mãos dos parceiros de fabricação. Os chips passaram por uma série de testes internos. A empresa afirma que os testes com clientes começarão em breve.
A atualização foi anunciada pelo CEO Jensen Huang na palestra principal da Consumer Electronics Show em Las Vegas. Ele afirmou que a corrida pela liderança em IA está a acelerar a um ritmo mais elevado no mundo. A Nvidia prevê uma procura contínua por aceleradores avançados.
Rubin aproxima-se do teste com clientes
Rubin é a geração mais recente de aceleradores de IA da Nvidia. Segue-se ao Blackwell, que é popular nos data centers. A Nvidia afirma que Rubin pode dar um grande salto em desempenho.
Segundo a empresa, Rubin oferece treino em inteligência artificial três vezes e meia mais rápido do que o Blackwell. É também cinco vezes mais rápido em termos de desempenho com cargas de trabalho de IA. O treino envolve a criação de modelos com o auxílio de grandes conjuntos de dados. A inferência refere-se ao uso em tempo real de modelos treinados.
Cada chip Rubin passou por validação inicial. A Nvidia destacou que uma preparação atempada é essencial para os clientes que têm pressa em implementar sistemas de IA. Empresas e provedores de cloud precisam de hardware mais rápido e eficiente.
Eficiência e melhoria de desempenho
Rubin apresenta uma nova unidade central de processamento com 88 núcleos. Segundo a Nvidia, o CPU tem o dobro do desempenho do seu antecessor. A potência extra ajuda em atividades complexas de IA.
Os sistemas atuais de IA baseiam-se em vários modelos que interagem. São sistemas que lidam com planeamento, raciocínio e tomada de decisão. Segundo a Nvidia, Rubin é direcionado para cargas de trabalho tão sofisticadas.
Custos operacionais mais baixos também fizeram parte do foco da empresa. O sistema baseado em Rubin pode alcançar o mesmo resultado com um número reduzido de componentes. Isto economiza energia e custos de data centers.
No seu evento GTC de primavera, realizado na Califórnia, a Nvidia apresentará informações técnicas completas. A empresa está a reter menos informações até ao momento. O plano mantém o foco na roadmap de hardware.
Provedores de cloud tornam as implementações prontas
Rubin será utilizado pelas principais empresas de cloud na segunda metade do ano. São elas Microsoft, Google Cloud e Amazon Web Services. Elas contribuem com uma parte significativa da receita de sistemas de IA para a Nvidia.
A Nvidia irá operar os seus supercomputadores, DGX SuperPod, com chips Rubin. Os chips também serão vendidos individualmente aos clientes. Isto permite maior flexibilidade no design dos sistemas.
A competição por chips de IA continua a aumentar. Competidores como a Advanced Micro Devices estão a anunciar os seus próprios produtos. Algumas empresas de tecnologia também estão a criar chips internos.
A procura a longo prazo não é algo que a Nvidia esteja preocupada. A empresa acredita que os gastos em IA podem atingir trilhões de dólares. Está a observar um aumento nos serviços de cloud, nas empresas e em novas indústrias.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A Nvidia avança na IA com novos chips Rubin previstos para lançamento
Nvidia lidera em hardware de IA com os novos chips Rubin enquanto a corporação se prepara para testá-los com os seus clientes ainda este ano
ConteúdosRubin aproxima-se do teste com clientesEficiência e melhoria de desempenhoProvedores de cloud tornam as implementações prontasA introdução é uma indicação de que a Nvidia está a tentar consolidar ainda mais a sua dominância em computação de IA em data centers. Segundo a empresa, o novo hardware não só é mais rápido, mas também mais barato de operar e estará pronto a tempo.
A Nvidia também garantiu que todos os seis chips Rubin estavam de volta às mãos dos parceiros de fabricação. Os chips passaram por uma série de testes internos. A empresa afirma que os testes com clientes começarão em breve.
A atualização foi anunciada pelo CEO Jensen Huang na palestra principal da Consumer Electronics Show em Las Vegas. Ele afirmou que a corrida pela liderança em IA está a acelerar a um ritmo mais elevado no mundo. A Nvidia prevê uma procura contínua por aceleradores avançados.
Rubin aproxima-se do teste com clientes
Rubin é a geração mais recente de aceleradores de IA da Nvidia. Segue-se ao Blackwell, que é popular nos data centers. A Nvidia afirma que Rubin pode dar um grande salto em desempenho.
Segundo a empresa, Rubin oferece treino em inteligência artificial três vezes e meia mais rápido do que o Blackwell. É também cinco vezes mais rápido em termos de desempenho com cargas de trabalho de IA. O treino envolve a criação de modelos com o auxílio de grandes conjuntos de dados. A inferência refere-se ao uso em tempo real de modelos treinados.
Cada chip Rubin passou por validação inicial. A Nvidia destacou que uma preparação atempada é essencial para os clientes que têm pressa em implementar sistemas de IA. Empresas e provedores de cloud precisam de hardware mais rápido e eficiente.
Eficiência e melhoria de desempenho
Rubin apresenta uma nova unidade central de processamento com 88 núcleos. Segundo a Nvidia, o CPU tem o dobro do desempenho do seu antecessor. A potência extra ajuda em atividades complexas de IA.
Os sistemas atuais de IA baseiam-se em vários modelos que interagem. São sistemas que lidam com planeamento, raciocínio e tomada de decisão. Segundo a Nvidia, Rubin é direcionado para cargas de trabalho tão sofisticadas.
Custos operacionais mais baixos também fizeram parte do foco da empresa. O sistema baseado em Rubin pode alcançar o mesmo resultado com um número reduzido de componentes. Isto economiza energia e custos de data centers.
No seu evento GTC de primavera, realizado na Califórnia, a Nvidia apresentará informações técnicas completas. A empresa está a reter menos informações até ao momento. O plano mantém o foco na roadmap de hardware.
Provedores de cloud tornam as implementações prontas
Rubin será utilizado pelas principais empresas de cloud na segunda metade do ano. São elas Microsoft, Google Cloud e Amazon Web Services. Elas contribuem com uma parte significativa da receita de sistemas de IA para a Nvidia.
A Nvidia irá operar os seus supercomputadores, DGX SuperPod, com chips Rubin. Os chips também serão vendidos individualmente aos clientes. Isto permite maior flexibilidade no design dos sistemas.
A competição por chips de IA continua a aumentar. Competidores como a Advanced Micro Devices estão a anunciar os seus próprios produtos. Algumas empresas de tecnologia também estão a criar chips internos.
A procura a longo prazo não é algo que a Nvidia esteja preocupada. A empresa acredita que os gastos em IA podem atingir trilhões de dólares. Está a observar um aumento nos serviços de cloud, nas empresas e em novas indústrias.