NVIDIA 在 CES 2026 展前發表「開放式推理視覺語言動作模型」,讓自動駕駛擁有更精準的「視覺」,全新推出的 NVIDIA Alpamayo 系列開放人工智慧(AI)模型、模擬工具與資料叢集,Alpamayo 1、AlpaSim 及物理 AI 開放資料集,協助開發具備類人判斷力的車輛,使其能夠進行感知、推理與行動,並讓開發者得以微調、蒸餾和測試模型,進而實現更高的安全性、穩健性與擴充性。
自駕車必須在極其廣泛的駕駛條件下安全運行,NVIDIA 引述汽車行駛過程中所面對的「長尾(long tail)」挑戰,傳統的自動駕駛架構將「感知」與「規劃」分離,導致在面對新型或異常狀況時使系統的擴充性受限。
NVIDIA 指出,Alpamayo 系列推出具備思維鏈且基於推理的視覺語言動作(VLA)模型,將類人思維導入自動駕駛的決策過程。這些系統能逐步解析新穎或罕見的場景,提高對於升級智慧車輛信任度與安全性至關重要的駕駛能力與可解釋性,並由 NVIDIA Halos 安全系統提供技術支持,如此一來,將可望解決過去模型訓練在面對突發狀況的解決能力不夠強的問題。
NVIDIA 創辦人暨執行長黃仁勳表示:「物理 AI 的 ChatGPT 時刻已經到來,機器開始在現實世界中理解、推理並採取行動。自駕計程車將是首批受益者之一。Alpamayo 為自駕車帶來推理能力,使其得以思考罕見場景、在複雜環境中安全駕駛,並解釋駕駛決策。這正是實現安全、可擴展自動駕駛的基石。」
Nvidia 新系列的核心是 Alpamayo 1,這是一個擁有 100 億個參數的基於推理的思維鏈視覺語言動作 (VLA) 模型,它使自動駕駛汽車能夠更像人類一樣思考,從而在沒有先前經驗的情況下解決複雜的邊緣情況,例如如何在繁忙的十字路口應對交通信號燈故障。
黃仁勳指出,Alpamayo 不僅能接收感應元件訊息,還能推斷即將採取的行動,甚至能啟用方向盤、剎車和油門,在這之前,它會提醒駕駛它將要採取的行動,以及採取該行動的原因。當然,還有行駛軌跡。
Alpamayo 1 的底層程式碼可在 Hugging Face 上取得。對於開發商來說,他們可將 Alpamayo 1 改造成運行時間較短的模型用於車輛開發,或將其作為基於推理的評估器和自動標註系統等自動駕駛開發工具的基礎。Alpamayo 1 提供開放的模型權重與開源推理指令碼。該系列未來的模型將具備更大的參數規模、更精細的推理能力、更靈活的輸入輸出選項,以及更多商業化用途。
NVIDIA 還公開了多項開放數據,其中包括超過 1700 小時的駕駛測試數據,這些數據不是只在安全測試路段執行,它還涵蓋了許多罕見的實際道路行駛場景,重點是這是一個「物理 AI 開放資料集」,這些資料也都在 Hugging Face 上架。
與此同時,NVIDIA 還推出了 AlpaSim,這是一款完全開源的端對端的模擬框架,用於高擬真度自動駕駛開發,現可於 GitHub 取得。AlpaSim 提供逼真的感測器建模、可配置的交通動態,以及具擴展性的閉環測試環境,從而實現快速驗證與策略最佳化。
簡而言之,此次推出的 Alpamayo 將自動駕駛三大支柱,包括開放模型、模擬框架與資料集,整合進一個緊密相連的開放生態系,任何汽車開發者或研究團隊皆可在此基礎上進行建構,NVIDIA 或者說是黃仁勳,正打算以此加速自駕車發展。
NVIDIA 官方資料指出,目前多家自動駕駛產業都表態支持 Alpamayo,包括 Lucid、JLR、Uber 與 Berkeley DeepDrive 在內的移動服務領導者和產業專家,正對 Alpamayo 展現興趣,以開發能實現 Level 4 自動駕駛的推理型技術堆疊。除了 Alpamayo,開發者還能利用 NVIDIA 豐富的工具與模型庫,包括來自 NVIDIA Cosmos 與NVIDIA Omniverse 平台的資源。
![]()