NVIDIA 今日宣布與軟銀(SoftBank Corp.)展開多項加快推動開發日本主權人工智慧(AI)計劃的合作,進一步提升日本在全球科技領域的領導地位,同時也為全球電信供應商釋放數十億美元的 AI 收入商機。
NVIDIA 創辦人暨執行長黃仁勳在 NVIDIA AI 日本高峰會(AI Summit Japan)的主題演講中,宣布軟銀正在使用 NVIDIA Blackwell 平台打造日本最強大的 AI 超級電腦,並且計劃在下一代超級電腦中使用 NVIDIA Grace Blackwell 平台。
NVIDIA 還公開軟銀使用 NVIDIA AI Aerial 加速運算平台,已成功試驗全球第一個結合 AI 與 5G 的電信網路。這項運算上的突破,為電信業者開啟了價值數十億美元的潛在 AI 收入來源。
NVIDIA 與軟銀也宣布透過使用 NVIDIA AI Enterprise 軟體,軟銀正致力於建置一個 AI 市集(AI marketplace),以滿足日本當地對於安全 AI 運算的需求。這項新服務支援 AI 訓練與邊緣 AI 推論,使得軟銀成為日本的 AI 網格(AI grid),促進日本各產業、消費者與企業創造、分配及利用 AI 服務的新商機。
軟銀預計將取得全球首批 NVIDIA DGX B200 系統,作為其全新 NVIDIA DGX SuperPOD 超級電腦的建置基礎。並計劃將其搭載 Blackwell 平台的 DGX SuperPOD 用於自身的生成式 AI 開發及 AI 相關業務,還有提供給日本各地的大學、研究機構和企業使用。待完工後,軟銀的 DGX SuperPOD 超級電腦預計屆時將是日本效能最高的超級電腦。
![]()
除了 DGX SuperPOD 超級電腦外,軟銀還打算建造另一台 NVIDIA 加速超級電腦,以執行極度密集的運算工作負載。這台超級電腦的初步計劃是以 NVIDIA Grace Blackwell 平台設計為基礎,採用 NVIDIA GB200 NVL72 多節點液冷機架系統,結合 NVIDIA Blackwell GPU 與高能效的 Arm 架構 NVIDIA Grace CPU。
此外,軟銀與 NVIDIA 密切合作開發出一種可同時運行 AI 和 5G 工作負載的新型電信網路,業界稱之為 AI 無線接取網路技術(AI-RAN)。這種新型的基礎設施獲得了電信業廣泛的生態系支持,它讓電信業者能夠將其基地台從成本中心變成 AI 創造收入的資產。透過在日本神奈川縣進行戶外試驗,軟銀證明其由 NVIDIA 加速的 AI-RAN 解決方案已經達到電信商等級的 5G 效能,且能夠在使用網路的剩餘容量來同時執行 AI 推論工作負載。
傳統的電信網路是為處理尖峰負載而設計,平均只使用三分之一的容量。有了 AI-RAN 所提供的共同運算能力,預計電信業者現在有機會將剩下的三分之二容量用於 AI 推論服務,並且將其變現。
NVIDIA 與軟銀估算電信業者在新的 AI-RAN 基礎架構上每投資一美元,就能賺取約五美元的 AI 推論收入。考慮到營運支出與資本支出成本,軟銀估算其基礎設施中每增加一台 AI-RAN 伺服器,利潤率最高可達到 219%。
軟銀在測試中使用 NVIDIA AI Enterprise 建立實體環境的 AI 推論應用,包括自動駕駛車遠端支援、機器人控制以及邊緣多模式檢索自動生成(RAG)。所有推論工作負載都可以在軟銀的 AI-RAN 網路上以最佳狀態執行。
軟銀的全軟體定義 5G 無線電堆疊已針對 NVIDIA 的 AI 運算平台進行最佳化,包括軟銀基於 NVIDIA Aerial CUDA 加速 RAN 函式庫所增強的 L1 軟體。軟銀計劃將 NVIDIA Aerial RAN Computer-1 系統加入其解決方案中,據軟銀估算,這套系統的耗電量將比傳統 5G 網路基礎設施減少 40%。
由於 AI-RAN 解決方案需要在不影響電信商等級即時效能的情況下,視供需情況動態調整運算量的高低,因此軟銀打算使用 NVIDIA AI Enterprise 無伺服器應用程式介面及其自行開發的協調器,建立一個連接 AI 技術供需的生態系。這使得軟銀在有可用的運算資源時,將外部 AI 推論工作交給 AI-RAN 伺服器執行,以提供在地化、低延遲又安全的推論服務。