Nvidia、新しいRubinチップの発売でAI分野で先行

Nvidiaは最新のRubinチップを搭載したAIハードウェアでリードし、今年後半に顧客とのテストを開始予定

内容Rubinが顧客テストに近づく効率と性能の向上クラウドプロバイダーが展開準備を整える導入は、NvidiaがデータセンターAIコンピューティングにおける支配をさらに強化しようとしている兆候です。同社によると、新しいハードウェアはより高速であるだけでなく、運用コストも安く、予定通りに準備が整っています。

Nvidiaはまた、6つのRubinチップすべてが製造パートナーの手に戻ったことを確認しました。これらのチップは社内テストを複数回経ています。同社は、顧客向けの試験が間もなく開始されると述べています。

このアップデートは、Las Vegasで開催されたConsumer Electronics Showの基調講演でCEOのJensen Huangによって発表されました。彼は、AIリーダーシップ競争が世界的に加速していると主張しました。Nvidiaは、高度なアクセラレータに対する継続的な高需要を見込んでいます。

Rubinが顧客テストに近づく

Rubinは、Nvidiaの最新世代のAIアクセラレータです。これは、データセンターで人気のBlackwellに続くものです。Nvidiaは、Rubinが性能面で大きな飛躍をもたらすと主張しています。

同社によると、RubinはBlackwellよりも人工知能のトレーニングを3.5倍高速化します。また、AIワークロードのパフォーマンスも5倍速いです。トレーニングは、大規模なデータセットを用いてモデルを作成する作業です。推論は、トレーニング済みモデルのリアルタイム利用に関わります。

すべてのRubinチップは初期検証を終えています。Nvidiaは、AIシステムの導入を急ぐ顧客にとって、タイムリーな準備が不可欠であると強調しました。企業やクラウドプロバイダーは、より高速で効率的なハードウェアを必要としています。

効率と性能の向上

Rubinは、88コアの新しい中央処理装置(CPU)を搭載しています。Nvidiaによると、このCPUは前世代の2倍の性能を持ちます。追加のパワーは複雑なAI活動を支援します。

現在のAIシステムは、さまざまなモデルが相互作用する構造に基づいています。これらは、計画、推論、意思決定を扱うシステムです。Nvidiaによると、Rubinはこうした高度な負荷をターゲットにしています。

運用コストの削減も、同社の焦点の一つです。Rubinを基盤としたシステムは、少ない構成要素で同じ結果を達成できます。これにより、エネルギー消費とデータセンターのコストが節約されます。

カリフォルニアで開催される春のGTCイベントでは、Nvidiaは完全な技術情報を公開します。同社はそれまでに少ない情報を公開しています。ハードウェアのロードマップに引き続き焦点を当てています。

クラウドプロバイダーが展開準備を整える

Rubinは、今年後半に主要なクラウド企業によって使用される予定です。対象はMicrosoft、Google Cloud、Amazon Web Servicesです。これらは、NvidiaのAIシステム収益の重要な部分を占めています。

Nvidiaは、スーパコンピュータのDGX SuperPodをRubiチップ上で運用します。これらのチップは、個別に顧客に販売される予定です。これにより、システムの設計の柔軟性が向上します。

AIチップの競争は依然として激化しています。Advanced Micro Devicesなどの競合他社も自社製品を宣伝しています。一部のテクノロジー企業は、社内でチップを開発しています。

長期的な需要について、Nvidiaは懸念していません。同社は、AIへの投資が兆ドル規模に達する可能性があると考えています。クラウドサービス、企業、新産業の拡大とともに需要は増加しています。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン