
這不是顯卡,是一座2噸重的AI工廠
美東時間1月5日周一,英偉達在CES展會推出新一代Rubin AI平台,標誌著其在人工智能(AI)芯片領域保持年度更新節奏。
黃仁勳在展會上宣布Vera Rubin已全麵投產,該平台重量近2噸,通過六款新芯片的集成設計,在推理成本和訓練效率上實現大幅躍升,實現每秒千億級別的 AI 運算,堪稱一座真正的人工智能工廠。
英偉達還宣布開源其首個推理 VLA (視覺-語言-動作) 模型Alpamayo 1。該模型旨在打造能在意外情況下思考解決方案的車輛,采用 100 億參數架構,使用視頻輸入生成軌跡和推理過程。
黃仁勳稱,首款搭載英偉達技術的汽車將第一季度在美上路,第二季度在歐洲上路,下半年在亞洲上路。
英偉達還發布了多個開源模型、數據和工具,如用於代理AI的英偉達Nemotron家族、用於物理AI的Cosmos平台、用於機器人的英偉達Isaac GR00T以及用於生物醫學的英偉達Clara。
英偉達發布新一代Rubin平台,性能提升5倍,已全麵投產擬下半年發貨
美東時間5日周一,英偉達CEO黃仁勳在拉斯維加斯表示,六款Rubin芯片已從合作製造方處回廠,並已通過部分關鍵測試,正按計劃推進。
他指出AI競賽已經開始,所有人都在努力達到下一個水平。英偉達強調,基於Rubin的係統運行成本將低於Blackwell版本,因為它們用更少組件即可實現相同結果。
微軟和其他大型雲計算提供商將成為下半年首批部署新硬件的客戶。
微軟的下一代Fairwater AI超級工廠將配備英偉達Vera Rubin NVL72機架級係統,規模可擴展至數十萬顆英偉達Vera Rubin超級芯片。CoreWeave也將是首批提供Rubin係統的供應商之一。
該平台的推出正值華爾街部分人士擔憂英偉達麵臨競爭加劇,並懷疑AI領域的支出能否維持當前速度。但英偉達保持長期看漲預測,認為總市場規模可達數萬億美元。
性能提升5倍,推理token生成成本降低至多10倍
據英偉達公告,Rubin平台的訓練性能是前代Blackwell的3.5倍,運行AI軟件的性能則提升5倍。與Blackwell平台相比,Rubin可將推理token生成成本降低至多10倍,訓練混合專家模型(MoE)所需GPU數量減少4倍。
新平台配備的Vera CPU擁有88個核心,性能是其替代產品的兩倍。這款CPU專為代理推理設計,是大規模AI工廠中能效最高的處理器,采用88個定製Olympus核心、完整Armv9.2兼容性和超快NVLink-C2C連接。
Rubin GPU配備第三代Transformer引擎,具備硬件加速自適應壓縮功能,可提供50 petaflops的NVFP4計算能力用於AI推理。每個GPU提供3.6TB/s的帶寬,而Vera Rubin NVL72機架則提供260TB/s帶寬。
芯片測試進展順利,廣泛生態係統支持
黃仁勳披露,全部六款Rubin芯片已從製造合作夥伴處返回,並已通過顯示其可按計劃部署的關鍵測試。這一表態表明英偉達正維持其作為AI加速器領先製造商的優勢地位。
該平台包含五大創新技術:第六代NVLink互連技術、Transformer引擎、機密計算、RAS引擎以及Vera CPU。其中第三代機密計算技術使Vera Rubin NVL72成為首個提供跨CPU、GPU和NVLink域數據安全保護的機架級平台。
第二代RAS引擎橫跨GPU、CPU和NVLink,具備實時健康檢查、容錯和主動維護功能,以最大化係統生產力。機架采用模塊化、無線纜托盤設計,組裝和維護速度比Blackwell快18倍。
英偉達表示,包括亞馬遜的AWS、穀歌雲、微軟和甲骨文雲在2026年將率先部署基於Vera Rubin的實例,雲合作夥伴CoreWeave、Lambda、Nebius和Nscale也將跟進。
OpenAI CEO Sam Altman表示:智能隨計算擴展。當我們增加更多計算時,模型變得更強大,能解決更難的問題,為人們帶來更大影響。英偉達Rubin平台幫助我們持續擴展這一進展。
Anthropic聯合創始人兼CEO Dario Amodei稱,英偉達Rubin平台的效率提升代表了能夠實現更長記憶、更好推理和更可靠輸出的基礎設施進步。
Meta CEO紮克伯格表示,英偉達的Rubin平台有望帶來性能和效率的階躍式變化,這是將最先進模型部署給數十億人所需要的。
英偉達還稱,思科、戴爾、惠普企業、聯想和超微預計將推出基於Rubin產品的各類服務器。包括Anthropic、Cohere、Meta、Mistral AI、OpenAI和xAI等AI實驗室正期待利用Rubin平台訓練更大型、更強大的模型。
評論稱,英偉達今年比往年更早披露新產品的細節,這是該司保持行業依賴其硬件的舉措之一。因為英偉達通常在每年春季加州聖何塞舉行的GTC活動上深入介紹產品細節。
物理AI的ChatGPT時刻!英偉達內驅無人駕駛汽車將至,將於一季度在美國上路
黃仁勳還宣布開源其首個推理 VLA (視覺-語言-動作) 模型Alpamayo 1,使汽車能夠在真實世界中進行推理,這標誌著英偉達在無人駕駛領域邁出關鍵一步。
這一舉措旨在加速安全的自動駕駛技術開發。該模型通過類人思維方式處理複雜駕駛場景,為解決自動駕駛長尾問題提供新路徑。
黃仁勳表示,首款搭載英偉達技術的汽車將於第一季度在美國上路,第二季度在歐洲上路,下半年在亞洲上路。
英偉達免費開放Alpamayo模型,允許潛在用戶自行對模型進行重新訓練。該模型旨在打造能在意外情況下思考解決方案的車輛,例如交通信號燈故障等場景。車載計算機將分析來自攝像頭和其他傳感器的輸入,將其分解為步驟並提出解決方案。
這一開源舉措獲得了行業廣泛支持。包括捷豹路虎(JLR)、Lucid、Uber以及加州大學伯克利分校DeepDrive深度學習自動駕駛產業聯盟(BDD)在內,多家移動出行領軍企業和研究機構表示,將利用Alpamayo開發基於推理的自動駕駛技術棧,推動L4級自動駕駛部署。
首個開源推理VLA模型發布
英偉達此次發布的Alpamayo家族整合了三大基礎支柱:開源模型、仿真框架和數據集,構建了一個完整的開放生態係統供任何汽車開發者或研究團隊使用。
Alpamayo 1是業界首個為自動駕駛研究社區設計的思維鏈推理VLA模型,現已在Hugging Face平台發布。
該模型采用100億參數架構,使用視頻輸入生成軌跡及推理軌跡,展示每個決策背後的邏輯。開發者可以將Alpamayo 1改編為更小的運行時模型用於車輛開發,或將其作為自動駕駛開發工具的基礎,例如基於推理的評估器和自動標注係統。
黃仁勳表示:
物理AI的ChatGPT時刻已到來機器開始理解、推理並在真實世界中行動。無人出租車是首批受益者。Alpamayo為自動駕駛汽車帶來推理能力,使其能夠思考罕見場景,在複雜環境中安全駕駛,並解釋其駕駛決策這是安全、可擴展自動駕駛的基礎。
英偉達強調,Alpamayo模型並非直接在車內運行,而是作為大規模教師模型,供開發者微調並提取到其完整自動駕駛技術棧的骨幹中。未來該家族的模型將具有更大的參數規模、更詳細的推理能力、更多的輸入輸出靈活性以及商業使用選項。
推理VLA技術原理解析
推理VLA是一種統一的AI模型,將視覺感知、語言理解和動作生成與逐步推理集成在一起。
這類模型整合了明確的AI推理功能,在傳統視覺-語言-動作模型的基礎上構建。AI推理是AI逐步解決複雜問題並生成類似於人類思維過程推理痕跡的能力。這些係統對一係列互聯網規模的任務進行預訓練,包括語言生成和視覺連接,以發展通用知識和感知基礎。
與將視覺輸入直接映射到動作的標準VLA模型不同,推理VLA模型將複雜的任務分解成可管理的子問題,並以可解釋的形式闡明其推理過程。這使模型能夠更準確地解決問題或執行任務,還能對模型正在進行的操作提供一定程度的反思。
構建推理VLA模型需要三種基本AI功能:視覺感知、語言理解以及動作和決策製定。視覺感知處理來自攝像頭、毫米波雷達或激光雷達等感知傳感器的實時數據;語言理解通過自然語言處理解釋命令、上下文提示和對話輸入;動作和決策製定則使用融合的感官和語言信息來計劃、選擇和安全地執行任務,同時生成可解釋的推理痕跡。
在自動駕駛場景中,推理VLA可以對交通狀況進行逐步推理。例如,接近一個十字路口時,係統可能會進行如此推理:我看到一個停止標誌,左邊有車輛駛來,還有行人正在過馬路。我應該減速,完全停下來,等待行人通過人行橫道,安全時再繼續前進。
完整開放生態係統支持開發
除Alpamayo 1模型外,英偉達還發布了配套的仿真工具和數據集,構建完整的開發生態係統。
AlpaSim是一個完全開源的端到端仿真框架,用於高保真自動駕駛開發,現已在GitHub平台發布。它提供真實的傳感器建模、可配置的交通動態和可擴展的閉環測試環境,實現快速驗證和策略優化。
英偉達還提供了麵向自動駕駛最多樣化的大規模開放數據集,包含超過1700小時的駕駛數據,涵蓋最廣泛的地理位置和條件範圍,覆蓋罕見且複雜的真實世界邊緣案例,這對於推進推理架構至關重要。這些數據集可在Hugging Face平台獲取。
這些工具共同為基於推理的自動駕駛技術棧創建了一個自我強化的開發循環。開發者可以利用這些資源在專有車隊數據上微調模型,將其集成到基於英偉達DRIVE AGX Thor加速計算構建的英偉達DRIVE Hyperion架構中,並在商業部署前通過仿真驗證性能。
跨行業AI模型全麵開放
本周一,英偉達還發布了推動各行業AI發展的多個新開源模型、數據和工具。
這些模型涵蓋用於代理AI的英偉達Nemotron家族、用於物理AI的英偉達Cosmos平台、用於機器人的英偉達Isaac GR00T以及用於生物醫學的英偉達Clara。英偉達還提供了開源訓練框架和全球最大的開放多模態數據集合之一,包括10萬億語言訓練標記、50萬個機器人軌跡、45.5萬個蛋白質結構和100TB的車輛傳感器數據。
英偉達代理式AI基礎模型Nemotron發布了語音、多模態檢索增強生成(RAG)和安全相關的新模型。Nemotron Speech包含業界領先的開源模型,為實時字幕和語音AI應用提供實時、低延遲語音識別。Nemotron RAG包含新的嵌入和重排序視覺語言模型,提供高度準確的多語言和多模態數據洞察。
在物理AI和機器人領域,英偉達發布了Cosmos開放世界基礎模型,為加速物理AI開發和驗證帶來類人推理和世界生成能力。Isaac GR00T N1.6是一個開放推理VLA模型,專為人形機器人打造,實現全身控製,並使用英偉達Cosmos Reason實現更好的推理和上下文理解。
英偉達稱,博世(Bosch)、CodeRabbit、CrowdStrike、Cohesity、Fortinet、Franka Robotics、Humanoid、Palantir、Salesforce、ServiceNow、日立和Uber等科技業的領頭羊正在采用並基於英偉達的開源模型技術進行開發。
英偉達的開源模型、數據和框架現已在GitHub和Hugging Face平台發布,並可通過一係列雲、推理和AI基礎設施平台以及build.nvidia.com獲取。這些模型中的許多還以英偉達NIM微服務的形式提供,可在從邊緣到雲端的任何英偉達加速基礎設施上進行安全、可擴展的部署。