黃仁勳在CES 2026宣布Vera Rubin:全新AI計算平台為行業帶來轉折點

經過五年未在CES推出消費級顯示卡後,NVIDIA的CEO黃仁勳將焦點轉向另一個目標——推出 Vera Rubin 計算平台,一套重達2.5噸的伺服器AI系統,旨在加速下一代AI模型的訓練。這不僅是一款硬體產品,更是一個全面的策略,旨在改變企業建構與部署AI基礎設施的方式。

黃仁勳在48小時內出席了三場活動,從NVIDIA Live到與西門子合作推動工業AI,再到聯想TechWorld大會。他的核心訊息:過去十年投資約10兆美元的計算資源亟需全面升級。

Vera Rubin — 六芯片架構超越Blackwell

Vera Rubin打破了NVIDIA內部的規則。不同於每代更換1-2顆芯片的傳統,這次公司同時設計了六種不同的芯片,已進入量產階段。原因在於傳統提升效能的方式已無法跟上AI模型每年10倍的成長速度,尤其是在摩爾定律放緩的背景下。

NVIDIA的選擇是「極限協同設計」——在芯片與整个平台的所有層面同步創新。Vera CPU整合了88核心的定制Olympus處理器,擁有176個執行緒,支援1.5TB系統記憶體與1.2TB/s的LPDDR5X帶寬——是Grace世代的三倍。Rubin GPU在推理能力上達到50 PFLOPS(是Blackwell的五倍),擁有3360億個晶體管,並整合第三代Transformer引擎,能動態調整精度。

為了連結這些元件,NVIDIA部署了ConnectX-9(800 Gb/s網卡)、BlueField-4 DPU(AI存儲端處理器)、NVLink-6交換芯片(連接18個節點,支持最多72個Rubin GPU協同運作)以及Ethernet Spectrum-6光纖交換芯片(512通道,每通道200 Gbps)。

卓越性能:從訓練到推理

Vera Rubin NVL72系統展現了令人驚豔的數據。在NVFP4推理任務中,性能達到3.6 EFLOPS,是Blackwell的五倍。在訓練方面,性能達到2.5 EFLOPS,較Blackwell提升3.5倍。LPDDR5X記憶體容量高達54TB(是Blackwell的三倍),HBM則達20.7TB,搭配1.6 PB/s的HBM4帶寬(是Blackwell的2.8倍)。

值得一提的是,儘管性能大幅提升,晶體管數量僅增加1.7倍(達220萬億),展現NVIDIA在半導體技術優化上的實力。訓練一個百萬億參數模型,Vera Rubin所需系統數量僅為Blackwell的四分之一,建造一個Token的成本也只有十分之一。

最重要的是,throughput(每瓦每美元完成的AI Token數量)較Blackwell提升十倍。對於一個價值50億美元的千兆瓦數據中心來說,這意味著營收能力將翻倍——每一美元投資能產生雙倍價值。

從43條纜線到0條:外部裝配技術突破

Vera Rubin在技術設計上也帶來革命。過去,一個超級電腦節點需要連接43條纜線,裝配耗時2小時且容易出錯。現在,Vera Rubin的節點使用0條纜線,只需6條液冷管,裝配時間縮短至5分鐘。

伺服器背後有近3.2公里的銅線,5000條銅纜形成NVLink主網,傳輸速度達400 Gbps。黃仁勳幽默表示:「或許重達數百公斤,你得是非常強壯的CEO才能搞定這個工作。」

無限KV快取:記憶體瓶頸的突破

AI的一大問題是長對話中,“KV Cache”(鍵值快取,AI的「任務記憶」)會充滿HBM記憶體。Vera Rubin的解決方案是在伺服器架上部署BlueField-4處理器,專門管理KV Cache。

每個節點配備4個BlueField-4,每個都額外配備150TB的語境記憶體,分配給GPU,每個GPU額外擁有16TB記憶體——而GPU本身僅約1TB。關鍵是,帶寬仍維持200 Gbps,資料傳輸速度不受影響。

Spectrum-X:專為AI生成的專用網路,節省50億美元

為了讓數十個伺服器架、數萬GPU協同如同單一記憶體,網路必須大且快且穩定。Spectrum-X是全球首款由NVIDIA推出的「專為AI生成」的端到端Ethernet網路平台,採用TSMC的COOP工藝與矽光子技術,提供512通道×200 Gbps的速度。

黃仁勳估算:一個價值50億美元的千兆瓦數據中心,使用Spectrum-X能提升25%的吞吐量,節省約50億美元。「可以說這個網路系統幾乎是『免費』的。」

計算安全:資料傳輸全程加密

Vera Rubin支援Confidential Computing(機密計算),所有資料在傳輸、存儲、運算過程中都被加密,包括PCIe、NVLink、CPU-GPU通信及其他匯流排。企業可以放心將模型部署在外部系統,不用擔心資料外洩。

物理AI:從機器人到自駕,聚焦現實世界

黃仁勳特別強調「三核計算」架構,用於物理AI:訓練用GPU構建的計算平台、放置在機器人或汽車上的推理「小腦」計算,以及模擬(Omniverse與Cosmos)提供的虛擬訓練環境。

基於此架構,NVIDIA宣布推出Alpamayo——首款具備思考與推理能力的自動駕駛模型。與傳統自駕不同,Alpamayo是端到端訓練系統,能解決自駕的「長尾問題」。面對未曾遇見的交通複雜情境,Alpamayo不僅依照硬性規則行事,更能像人類司機一樣進行推理。

搭載Alpamayo技術的梅賽德斯CLA將於今年第一季在美國正式亮相,之後推向歐洲與亞洲市場。這款車被NCAP評為全球最安全的汽車,採用獨特的「雙層安全堆疊」設計——當端到端AI模型不夠自信時,系統會立即切換到更傳統、更穩定的安全模式。

在舞台上,黃仁勳邀請人形機器人、四足機器人如Boston Dynamics、Agility等登台表演。他強調,最大的機器人其實就是工廠。所有機器人都將配備Jetson迷你電腦,在Omniverse平台的Isaac Simulator中進行訓練。NVIDIA也正將這些技術整合到工業生態系,如Synopsys、Cadence、Siemens。

開源模型:NVIDIA的策略選擇

黃仁勳特別讚揚開源社群。他指出,去年DeepSeek V1的突破直接推動了整個產業的發展浪潮。在簡報中,Kimi K2與DeepSeek V3.2分別是第一與第二的開源模型。

雖然目前開源模型的性能較頂尖商用模型落後約6個月,但每6個月就會有新模型出現。這種快速迭代的節奏,使得新創公司、巨頭與研究機構都不願錯過,甚至連NVIDIA也一樣。

他們這次不僅賣「工具」或顯示卡,而是打造超級電腦DGX Cloud,開發先進模型如La Proteina(蛋白質合成)與OpenFold 3。NVIDIA的開源生態涵蓋生命科學、物理AI、代理模型、機器人與自駕等多領域。

許多NVIDIA的Nemotron系列開源模型也是亮點,包括語音、多模態、生成式搜尋與安全模型,這些模型在多個排行榜上表現優異,並被多家企業採用。

未來展望:從虛擬世界到現實世界的策略

過去,NVIDIA專注於為虛擬世界打造晶片。如今,黃仁勳明確轉向物理AI,將自駕與機器人(尤其是人形機器人)作為代表,進入更激烈的現實世界競爭。

在AI泡沫的爭議中,除了推出Vera Rubin超算平台以解決計算需求,黃仁勳也大量投資於應用與軟體。目標是讓我們清楚看到AI的直觀變化——從更安全的自駕,到能推理的機器人。

歸根究底,只有當戰場轉向現實世界,武器才能持續銷售。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言