Nvidia domine le matériel IA avec ses nouveaux puces Rubin alors que la société se prépare à les tester avec ses clients plus tard cette année
ContenuRubin se rapproche des tests clientsEfficacité et amélioration des performancesLes fournisseurs de cloud rendent les déploiements prêtsL’introduction est une indication que Nvidia cherche à renforcer sa domination dans le calcul IA en centre de données. Selon la société, le nouveau matériel est non seulement plus rapide, mais aussi moins coûteux à exploiter et prêt à temps.
Nvidia a également veillé à ce que les six puces Rubin soient de retour entre les mains de ses partenaires de fabrication. Les puces ont subi plusieurs tests internes. La société indique que les essais clients commenceront bientôt.
La mise à jour a été annoncée par le Directeur Général Jensen Huang lors du discours d’ouverture du Consumer Electronics Show à Las Vegas. Il a affirmé que la course à la leadership en IA s’accélère à un rythme plus élevé dans le monde. Nvidia anticipe une demande continue et élevée pour des accélérateurs avancés.
Rubin se rapproche des tests clients
Rubin est la génération la plus récente d’accélérateurs IA de Nvidia. Elle succède à Blackwell, qui est populaire dans les centres de données. Nvidia affirme que Rubin peut faire un saut énorme en termes de performance.
Selon la société, Rubin permet un entraînement en intelligence artificielle trois fois et demie plus rapide que Blackwell. Il est également cinq fois plus performant en termes de charges de travail IA. L’entraînement consiste à créer des modèles à l’aide de grands ensembles de données. L’inférence concerne l’utilisation en temps réel de modèles entraînés.
Chaque puce Rubin a subi une validation initiale. Nvidia a souligné que la préparation en temps voulu est essentielle pour les clients qui souhaitent déployer rapidement des systèmes IA. Les entreprises et les fournisseurs de cloud ont besoin de matériel plus rapide et plus efficace.
Amélioration de l’efficacité et des performances
Rubin présente une nouvelle unité centrale de traitement (CPU) avec 88 cœurs. Selon Nvidia, le CPU a deux fois la performance de son prédécesseur. La puissance supplémentaire facilite les activités IA complexes.
Les systèmes IA actuels sont basés sur divers modèles qui interagissent. Ce sont ces systèmes qui gèrent la planification, le raisonnement ainsi que la prise de décision. Selon Nvidia, Rubin vise ces charges de travail sophistiquées.
Les coûts d’exploitation plus faibles faisaient également partie des priorités de l’entreprise. Le système basé sur Rubin peut atteindre le même résultat avec un nombre réduit de composants. Cela permet d’économiser de l’énergie et de réduire les coûts des centres de données.
Lors de son événement GTC de printemps, qui se tient en Californie, Nvidia présentera toutes les informations techniques complètes. La société en divulgue moins pour le moment. Le plan reste axé sur la feuille de route du matériel.
Les fournisseurs de cloud rendent les déploiements prêts
Rubin sera utilisé par les principales entreprises de cloud lors de la seconde moitié de l’année. Il s’agit de Microsoft, Google Cloud et Amazon Web Services. Elles contribuent une part importante des revenus des systèmes IA pour Nvidia.
Nvidia fera fonctionner ses superordinateurs, DGX SuperPod, avec des puces Rubin. Les puces seront également vendues individuellement aux clients. Cela permet une flexibilité de conception des systèmes.
La concurrence pour les puces IA ne cesse de croître. Des concurrents comme Advanced Micro Devices font la publicité de leurs propres produits. Certaines entreprises technologiques créent également leurs propres puces en interne.
La demande à long terme n’inquiète pas Nvidia. La société pense que les dépenses en IA pourraient atteindre des trillions de dollars. Elle constate une augmentation des services cloud, des entreprises et de nouvelles industries.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Nvidia prend une longueur d'avance dans l'IA avec de nouvelles puces Rubin prêtes à être lancées
Nvidia domine le matériel IA avec ses nouveaux puces Rubin alors que la société se prépare à les tester avec ses clients plus tard cette année
ContenuRubin se rapproche des tests clientsEfficacité et amélioration des performancesLes fournisseurs de cloud rendent les déploiements prêtsL’introduction est une indication que Nvidia cherche à renforcer sa domination dans le calcul IA en centre de données. Selon la société, le nouveau matériel est non seulement plus rapide, mais aussi moins coûteux à exploiter et prêt à temps.
Nvidia a également veillé à ce que les six puces Rubin soient de retour entre les mains de ses partenaires de fabrication. Les puces ont subi plusieurs tests internes. La société indique que les essais clients commenceront bientôt.
La mise à jour a été annoncée par le Directeur Général Jensen Huang lors du discours d’ouverture du Consumer Electronics Show à Las Vegas. Il a affirmé que la course à la leadership en IA s’accélère à un rythme plus élevé dans le monde. Nvidia anticipe une demande continue et élevée pour des accélérateurs avancés.
Rubin se rapproche des tests clients
Rubin est la génération la plus récente d’accélérateurs IA de Nvidia. Elle succède à Blackwell, qui est populaire dans les centres de données. Nvidia affirme que Rubin peut faire un saut énorme en termes de performance.
Selon la société, Rubin permet un entraînement en intelligence artificielle trois fois et demie plus rapide que Blackwell. Il est également cinq fois plus performant en termes de charges de travail IA. L’entraînement consiste à créer des modèles à l’aide de grands ensembles de données. L’inférence concerne l’utilisation en temps réel de modèles entraînés.
Chaque puce Rubin a subi une validation initiale. Nvidia a souligné que la préparation en temps voulu est essentielle pour les clients qui souhaitent déployer rapidement des systèmes IA. Les entreprises et les fournisseurs de cloud ont besoin de matériel plus rapide et plus efficace.
Amélioration de l’efficacité et des performances
Rubin présente une nouvelle unité centrale de traitement (CPU) avec 88 cœurs. Selon Nvidia, le CPU a deux fois la performance de son prédécesseur. La puissance supplémentaire facilite les activités IA complexes.
Les systèmes IA actuels sont basés sur divers modèles qui interagissent. Ce sont ces systèmes qui gèrent la planification, le raisonnement ainsi que la prise de décision. Selon Nvidia, Rubin vise ces charges de travail sophistiquées.
Les coûts d’exploitation plus faibles faisaient également partie des priorités de l’entreprise. Le système basé sur Rubin peut atteindre le même résultat avec un nombre réduit de composants. Cela permet d’économiser de l’énergie et de réduire les coûts des centres de données.
Lors de son événement GTC de printemps, qui se tient en Californie, Nvidia présentera toutes les informations techniques complètes. La société en divulgue moins pour le moment. Le plan reste axé sur la feuille de route du matériel.
Les fournisseurs de cloud rendent les déploiements prêts
Rubin sera utilisé par les principales entreprises de cloud lors de la seconde moitié de l’année. Il s’agit de Microsoft, Google Cloud et Amazon Web Services. Elles contribuent une part importante des revenus des systèmes IA pour Nvidia.
Nvidia fera fonctionner ses superordinateurs, DGX SuperPod, avec des puces Rubin. Les puces seront également vendues individuellement aux clients. Cela permet une flexibilité de conception des systèmes.
La concurrence pour les puces IA ne cesse de croître. Des concurrents comme Advanced Micro Devices font la publicité de leurs propres produits. Certaines entreprises technologiques créent également leurs propres puces en interne.
La demande à long terme n’inquiète pas Nvidia. La société pense que les dépenses en IA pourraient atteindre des trillions de dollars. Elle constate une augmentation des services cloud, des entreprises et de nouvelles industries.