在2026 CES展會上,英偉達正式發(fā)布專為實體機器人與自動駕駛車輛設(shè)計的開源AI解決方案——Alpamayo平臺。該平臺整合了視覺-語言-行動(VLA)模型、仿真工具及大規(guī)模數(shù)據(jù)集,旨在提升自動駕駛系統(tǒng)在復(fù)雜場景中的決策能力與安全性。
作為平臺核心,Alpamayo 1模型采用100億參數(shù)架構(gòu),基于思維鏈技術(shù)實現(xiàn)類人推理能力。該模型可自主拆解復(fù)雜問題,通過多步驟推演評估所有可能方案,最終選擇最優(yōu)路徑。例如在交通信號燈故障的交叉路口,系統(tǒng)能結(jié)合實時路況、車輛位置及行人動態(tài),規(guī)劃出安全通行策略,無需依賴預(yù)先標注的訓(xùn)練數(shù)據(jù)。
英偉達汽車事業(yè)部副總裁阿里·卡尼透露,開發(fā)者可通過Hugging Face平臺獲取底層代碼,根據(jù)需求微調(diào)模型參數(shù)。輕量化版本可適配不同計算資源,既可開發(fā)完整駕駛系統(tǒng),也能構(gòu)建視頻自動標注、決策合理性評估等輔助工具。結(jié)合英偉達Cosmos生成式世界模型,系統(tǒng)還能利用合成數(shù)據(jù)與真實駕駛數(shù)據(jù)混合訓(xùn)練,提升場景覆蓋度。
配套發(fā)布的開源數(shù)據(jù)集包含1,727小時駕駛記錄,覆蓋25個國家2,500余座城市。數(shù)據(jù)集收錄310,895個20秒視頻片段,涵蓋雨雪天氣、突發(fā)障礙物、非機動車混行等極端場景,為模型訓(xùn)練提供豐富素材。同步上線的AlpaSim仿真框架則通過GitHub開放,該工具可精確復(fù)現(xiàn)傳感器信號、交通流動態(tài)等要素,支持自動駕駛系統(tǒng)在虛擬環(huán)境中完成百萬公里級安全測試。
英偉達CEO黃仁勛將此技術(shù)突破稱為"物理智能領(lǐng)域的ChatGPT時刻"。他強調(diào),Alpamayo不僅具備實時控制車輛轉(zhuǎn)向、制動的能力,更能通過自然語言解釋決策邏輯。當(dāng)系統(tǒng)準備變道時,會同步告知駕駛員:"前方300米有施工路段,當(dāng)前時速60公里,變道后預(yù)計節(jié)省12秒通行時間。"這種透明化設(shè)計顯著提升了人機協(xié)作的信任度。
據(jù)現(xiàn)場演示,首款搭載該技術(shù)的量產(chǎn)車型將于今年第一季度在美國投入路測。這款汽車整合了12個攝像頭、5個毫米波雷達及高精地圖,在Alpamayo 1模型驅(qū)動下,可應(yīng)對98%的已知駕駛場景,并對剩余2%的極端情況保持持續(xù)學(xué)習(xí)能力。















