正如同 COMPUTEX 2025 預告,NVIDIA 在 CES 2026 展前發表了次世代 AI 平台架構 NVIDIA Rubin,該平台包含六款全新晶片,並可用於打造一台出色的 AI 超級電腦,這也代表著開發商將能以最低成本建置、部署 AI 生態圈以加速 AI 普及。
Rubin 平台的六款晶片採用極致協同設計,包含NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6 交換器、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU 與 NVIDIA Spectrum-6 乙太網路交換器,可大幅縮短訓練時間並降低推論詞元(token)成本。
Rubin 平台包括 NVIDIA Vera Rubin NVL72 機架級解決方案與 NVIDIA HGX Rubin NVL8 系統。Rubin 平台導入五項創新技術,包括最新一代的 NVIDIA NVLink 互連技術、Transformer Engine、機密運算與 RAS Engine,以及 NVIDIA Vera CPU。這些突破將加速代理型 AI、先進推理與大規模混合專家(MoE)模型推論,而每個詞元的成本相較 NVIDIA Blackwell 平台降低高達 10 倍。與前代產品相比,NVIDIA Rubin 平台使用減少 4 倍的 GPU 數量即可訓練混合專家模型,以加速 AI 應用。
NVIDIA 創辦人暨執行長黃仁勳表示:「AI 運算對訓練與推論的需求正呈現爆炸性成長。憑藉我們每年推出新一代 AI 超級電腦的節奏,以及橫跨六款全新晶片的極致協同設計。」Rubin晶片預期將把運行人工智慧模式的成本降低到對比Blackwell的十分之一,可望提速整體AI產業發展,而且速度相當快,因為在 CES 2026 展前ㄝ他同時宣布 Rubin 正式投產。
NVIDIA 表示,預計將採用 Rubin 的全球頂尖 AI 實驗室、雲端服務供應商、電腦製造商與新創公司包括 Amazon Web Services(AWS)、Anthropic、Black Forest Labs、思科、Cohere、CoreWeave、Cursor、戴爾科技集團、Google、Harvey、慧與科技、Lambda、聯想集團、Meta、微軟、Mistral AI、Nebius、Nscale、OpenAI、OpenEvidence、Oracle Cloud Infrastructure(OCI)、Perplexity、Runway、Supermicro、Thinking Machines Lab 與 xAI。
此外,NVIDIA 還發表了 NVIDIA BlueField-4 驅動推論情境記憶儲存平台(NVIDIA Inference Context Memory Storage Platform),這是一種專為千兆級推論而設計的全新 AI 原生儲存基礎架構,可加速並擴充
代理型 AI。NVIDIA 認為,推論情境記憶儲存平台可延伸 AI 代理的長期記憶,並可在機架規模 AI 系統叢集之間實現高頻寬的情境共享,提升每秒處理的詞元數量,且能源效率最高提升 5 倍。
包括 AIC、Cloudian、 DDN 、戴爾科技集團、慧與科技、Hitachi Vantara、IBM、 Nutanix 、Pure Storage、Supermicro、VAST Data 與 WEKA等創新的儲存公司,率先利用 BlueField-4 打造新一代 AI 儲存平台,並將於 2026 年下半年上市。