-
日期: 2026-03-16 | 來源: 騰訊科技 | 有0人參與評論 | 字體: 小 中 大
北京時間3月17日凌晨,英偉達(股票代碼:NVDA)GTC2026大會拉開帷幕。作為全球AI產業最受關注的年度時刻之壹,GTC大會被稱為“AI春晚”,其中黃仁勳的主題演講亦備受關注。
大會之前,黃仁勳拋出過壹個產業模型為GTC預熱,指出“AI是壹塊伍層蛋糕(AI is a Five-Layer Cake)”,從底座向上分別為:能源、電力,芯片、算力基礎設施,再到模型與應用,AI已經形成壹個全新的產業技術棧,並正在引發人類歷史上規模最大的基礎設施建設之壹。
黃仁勳說:“這次大會將覆蓋人工智能伍層架構的每壹層,當然還有最重要的壹層,也是最終真正推動這個行業騰飛的——應用。”
黃仁勳指出,隨著推理需求的爆發,正在推動英偉達的市場規模和客戶結構同步擴張。
回望2025年10月的華盛頓GTC大會,黃仁勳曾指出,到2026年底,英偉達憑借現有及未來的數據中心芯片,將撬動約5000億美元的收入規模。
這次GTC的演講台上,老黃再次給出預判:幾個月後,隨著 Blackwell與Rubin架構的全面接力,他所預見的市場機會已翻倍跨越。他明確表示,預計到2027年底,英偉達新壹代AI芯片的累計營收將正式跨入1萬億美元時代。
本次GTC 2026發布的最核心主題——以Vera Rubin為代表的“芯片全家桶”,構成了這壹代Vera Rubin機架的系統級基礎設施,其中包括:Vera CPU、Rubin GPU、NVLink 6 Switch(高速互聯)、ConnectX-9 SuperNIC(超級網卡)、BlueField-4 DPU(數據處理單元)、Spectrum-6 以太網交換機。
英偉達甚至還准備將AI算力“送上天”,推出面向軌道環境運行的Vera Rubin Space Module,用於支持衛星和空間任務中的邊緣智能計算。
值得注意的是,此次GTC,Groq 3 LPU推理加速器也完成了首秀。
此前,2025年12月,英偉達以約200億美元完成了對Groq核心技術資產的收購,Groq創始人Jonathan Ross加入英偉達擔任首席軟件架構師,Groq 3 LPU正是這筆收購正式落地的第壹個公開成果。
另外,席卷中美兩地開發者社區的“龍蝦熱”,在本次GTC上也得到了體現。
黃仁勳推出面向OpenClaw生態的NemoClaw方案,在OpenClaw原有智能體能力的基礎上,疊加了NVIDIA Nemotron開放模型,可以讓龍蝦更聰明,同時內置壹套實時安全管控機制,相當於給智能體配了壹個全程在線的“保安”。
整個2個多小時下來,英偉達GTC給人“系統級”概念印象非常深刻:早期突出的是算力、互聯,到最近兩年強化對系統級能力,甚至是AI工廠這種綜合型基礎設施的探索,所以大家會看到,黃仁勳在大會上已不再是單純強調單壹的算力芯片,取而代之的“芯片全家桶”、“算力全家桶”這種系統級解決方案。
01. Vera Rubin 平台:推理效率提升10倍,token成本降至拾分之壹
早在2024年Computex上,黃仁勳就首次披露了Rubin架構,並宣布其將接替Blackwell 成為下壹代AI GPU架構。隨後在2025 GTC上,展示了搭載Vera CPU與Rubin GPU的Superchip原型,但當時仍停留在單板級產品階段。
2026年CES,Rubin首次以完整平台形態出現,由六顆核心芯片協同工作,構成壹台機架級AI超級計算機。
而在本次GTC 2026上,英偉達又進壹步將Groq的LPU推理架構整合進平台,並首次將AI工廠、電力調度與智能體運行環境納入統壹架構。
Vera Rubin平台主要芯片和組件包括Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet switch,也包含了新整合的 Groq 3 LPU,組成壹台超級 AI 計算機。
相當於把過去只有超大型科技公司才能搭建的AI超算能力,做成了壹套可直接部署的標准機架。既能訓練更大的模型,也能讓AI像人壹樣持續工作、更低成本地處理復雜任務。
黃仁勳表示:“Vera Rubin NVL72機架:集成72顆Rubin GPU和36顆Vera CPU,通過NVLink 6高速互聯。相比上代Blackwell平台,NVL72訓練大型混合專家(MoE)模型所需GPU數量僅為肆分之壹,推理吞吐量/瓦特提升高達10倍,單token成本降至原來的拾分之壹”。
黃仁勳指出,Vera Rubin架構與LPX軟件平台的深度協同,將通過單體算力價值的10倍躍升,開啟高達3000億美元的年收入機遇。
02. Vera CPU:專為 Agentic AI 打造的新壹代處理器
英偉達正式發布了自研Vera CPU。
黃仁勳表示,這是全球首款專為“AI 智能體時代”與“強化學習”設計的處理器。該芯片搭載88顆自研Olympus核心,性能較傳統CPU快50%,能效提升達 2倍。
Vera CPU更像是智能體系統背後的“指揮與調度中心”。因為進入AI智能體時代後,很多工作並不只是生成答案,還需要同時管理大量並發任務,例如運行強化學習環境、調用外部工具、執行代碼、校驗數據結果。這類復雜的編排任務對CPU的單線程性能和帶寬提出了前所未有的要求。
也正因為如此,Vera CPU的設計重點不只是單純提升算力,而是讓大量AI環境能夠同時穩定運行,基於NVIDIA 空間多線程(Spatial Multithreading)技術,每顆核心可同時處理兩個任務,確保了大規模AI服務的響應速度。
Vera CPU采用LPDDR5X內存,帶寬高達1.2TB/s,是同類通用CPU的兩倍,功耗僅為壹半。結合NVLink-C2C技術,其與GPU間的互聯帶寬達1.8 TB/s,是傳統PCIe Gen 6的7倍。
單個 Vera CPU機架可集成256顆液冷方案Vera CPU,支持超過22500個並發線程獨立滿負荷運行,專為大規模“AI工廠”而生。
據介紹,目前已計劃部署Vera CPU的雲客戶包括:Meta、Oracle Cloud、CoreWeave 等;制造合作商涵蓋戴爾、HPE、聯想、超微電腦、華碩、富士康等。Redpanda 的測試顯示,Vera在處理實時數據流時的延遲降低了 5.5倍。相關產品預計將於2026年下半年上市。
03 Groq 3 LPX/LPU:填補GPU推理短板,超低延遲推理加速器
Groq 3 LPU芯片是英偉達專為極致低延遲推理設計的全新處理器。
在AI智能體時代,推理側需求正加速分化:大模型訓練依賴GPU的高吞吐算力,而面對需要極高交互性、超短響應時間的智能體任務,傳統GPU架構存在性能冗余。為此,英偉達正式引入LPU架構,專注於“極致低延遲的token生成”。
在硬件設計上,Groq 3 LPU芯片展現了與傳統GPU截然不同的技術路線。它摒棄了容量大但延遲相對較高的HBM顯存,單顆芯片集成了500MB的片上SRAM。雖然容量僅為Rubin GPU 的伍百分之壹,但其提供的帶寬高達150 TB/s,是HBM4(22 TB/s)的近7倍。
基於該芯片,英偉達推出了Groq 3 LPX平台(機架)。該平台采用液冷散熱,單個機架配備 256顆LPU處理器,累計提供128GB片上SRAM,總擴展帶寬達640TB/s。LPX平台作為Vera Rubin架構中的關鍵補齊,專注於承載大規模、高並發的低延遲推理工作負載。
當Groq 3 LPX平台與Vera Rubin NVL72結合使用時,這種混合架構實現了GPU強勁算力與 LPU極致帶寬的完美互補。在百萬token上下文場景下,其收益潛力可大幅提升。 該芯片及平台預計將於2026年下半年正式上市。
04 Vera Rubin Space Module:AI 算力飛向太空
英偉達這次還把AI算力直接送上了太空,發布了專門面向軌道數據中心(ODC)和太空操作的 Vera Rubin Space Module。
根據介紹,傳統衛星的工作模式是拍攝後將海量數據下載到地面處理,但這套流程正被“數據洪流”壓垮。因為壹顆地球觀測衛星每天可產生數TB數據,而星地通信帶寬有限、窗口期短,大量數據積壓等待傳輸。從拍攝到分析結果返回可能耗時數小時,錯過災害預警等場景的黃金窗口。
Vera Rubin Space Module 的核心思路是邊緣智能,讓衛星在軌完成目標檢測和變化分析,只下傳有價值的結果而非原始數據,從而大幅降低傳輸壓力。
英偉達表示,目前,像Axiom Space、Planet Labs這些太空賽道的頭牌公司,已開始用英偉達的加速平台來跑下壹代太空任務了。有了這種算力加持,無論是衛星自主運行還是地理空間智能分析,都將從“慢動作”變成實時響應。
黃仁勳表示:“相比H100 GPU,Rubin Space Module在太空推理算力上提升最高25倍,真正將數據中心級AI算力帶入太空”。
05 BlueField-4 STX:AI 原生存儲架構
英偉達正式發布BlueField-4 STX模塊化存儲參考架構,其基於BlueField-4 DPU 和CMX存儲模塊組件,旨在為AI智能體的長上下文推理提供底層KV Cache存儲支撐。
BlueField-4 STX扮演著AI智能體“外部上下文記憶體”的關鍵角色。它打破了傳統數據中心存儲的性能瓶頸,使智能體在處理超長上下文、跨工具調用及多輪任務協作時,無需頻繁重復計算,從而確保了推理過程的連貫性與響應速度。
相比傳統存儲架構,STX可提供高達5倍的token吞吐量及4倍的能效提升,並將數據攝取速度翻倍。
目前,CoreWeave、Oracle (OCI)、Mistral AI及Lambda等首批行業領先者已宣布采用 STX 作為其上下文記憶存儲方案。相關系統預計將於2026年下半年正式上市。
06 NemoClaw for OpenClaw:個人AI智能體平台
英偉達面向企業和開發者推出了完整的智能體開發平台NVIDIA Agent Toolkit。
該平台以開源方式開放,核心定位是讓AI智能體在自主高效完成任務的同時,確保環境的安全可控。
黃仁勳表示,該平台由肆大核心組件構成:
●以Nemotron 3 Super為代表的開放模型(提供1200億參數的長上下文推理能力);
●以AI-Q為代表的開放智能體(負責感知、規劃與執行);
●以 cuOpt為代表的開放技能工具(擴展智能體的專業能力);
●以及OpenShell這壹開源運行底座,負責管控智能體的行為邊界與安全權限。
除了深耕企業級市場,英偉達此次通過發布NemoClaw技術棧,正式將觸角延伸至個人智能體領域。這套方案本質上是為全球增長最快的開源項目OpenClaw提供了全棧式的底層軟件支撐。
黃仁勳在GTC現場直言,NemoClaw的核心邏輯在於“極簡部署”與“開箱即用”,用戶僅需單條指令,即可完成英偉達Nemotron模型與OpenShell運行時的安裝。
黃仁勳甚至將其高度評價為“個人AI時代的操作系統”,預示著軟件領域“新文藝復興”的開端。
安全性被定義為該方案的殺手鑭。
其關鍵組件 OpenShell 構建了壹個隔離沙箱,為智能體提供了受控的運行環境:智能體能訪問何種數據、連接哪些網絡,均受明確的安全護欄管控。
此外,該架構支持“本地+雲端”的混合模式:敏感任務駐留本地處理,復雜任務則通過隱私路由器(Privacy Router)調用雲端尖端模型,真正實現了隱私保護與計算能力的兼得。
黃仁勳在演講裡特別提到,NemoClaw具備極強的硬件普適性。它可運行在從消費級RTX PC、工作站到企業級DGX Station、甚至最新的DGX Spark全系列硬件上,並支持24小時全時在線(Always-on)。這意味著無論是個人開發者還是大型企業,都能在私有環境下部署壹套永不離線的“數字雇員”,徹底擺脫對公有雲服務的過度依賴。
07 NVIDIA Dynamo 1.0:AI工廠的“操作系統”
在生成式AI與AI智能體規模化落地的初期,行業普遍面臨核心瓶頸:數據中心內的GPU、內存與網絡資源利用率碎片化,調度機制失焦導致推理延遲高、token生成成本居高不下。企業空有算力集群,卻因缺乏高效的協同框架,陷入“部署難、落地貴”的困境。
英偉達在GTC 2026上正式發布的Dynamo 1.0開源平台,正是為破解這壹命題而生。
若將數據中心比作壹座AI工廠,Dynamo便是其“中央操作系統”。它打破了硬件間的壁壘,統壹編排大規模異構資源,使成千上萬顆加速芯片實現深度協同。
在Blackwell架構下,Dynamo可將推理性能最高提升7倍。
也就是說,基於這種負載優化,企業能夠以更少的硬件冗余,支撐更復雜的智能體任務,精准切中當下“降本增效”的戰略剛需。
目前,Dynamo已構建起強大的生態護城河。AWS、Azure、谷歌雲及Oracle Cloud肆大雲巨頭已完成深度集成;同時,從Cursor、Perplexity等AI原生新銳到PayPal等全球化企業,均已在其推理基座中部署Dynamo。
08 物理AI爆發:機器人任務成功率翻倍,比亞迪加入英偉達自動駕駛計劃
這次GTC 2026釋放了壹個清晰信號:物理AI正在從模型演示轉向真實世界的大規模落地。無論是機器人、自動駕駛還是AI工廠,英偉達都在用壹套“算力+仿真+安全”的底層體系,重新組織現實產業。
黃仁勳表示,英偉達正把物理AI像洪水壹樣推向機器人產業。
目前,全球頭部廠商幾乎都在英偉達朋友圈裡,從ABB、FANUC、KUKA、安川電機這工業肆大巨頭,到自帶流量的Boston Dynamics和Figure,全都接入了英偉達生態。
通過與Hugging Face合作,英偉達將Isaac和GR00T模型集成到LeRobot開源框架中,打通了機器與AI開發者之間的壁壘,讓上千萬開發者能直接參與訓練,加速機器人進化。
模型層面,新發布的Cosmos 3“世界基礎模型”不僅能模擬畫面,還能推理物理規則。
同時,人形機器人模型Isaac GR00T N1.7正式開放商業授權,其特點是讓機器人通過看、聽、動搞定復雜操作。黃仁勳還預告了年底將發布的GR00T N2,據說它在陌生環境中處理新任務的成功率比現有模型高出壹倍以上。
在自動駕駛領域,英偉達的DRIVE Hyperion平台已成為車企推進L4級自動駕駛的標配,比亞迪、吉利、日產等巨頭均已明確加入。
此外,英偉達發布了Vera Rubin DSX AI工廠參考設計,以及配套的Omniverse DSX數字孿生藍圖(正式上線),核心目的是幫助企業在建造AI工廠前,用虛擬環境完整模擬電力、冷卻、網絡、計算的協同運行,最大化每瓦產出的token數量,縮短投產時間。
結語
從新壹代算力芯片、高速網絡、數據存儲、處理器,到各類推理加速硬件,再到操作系統、開源AI大模型,以及機器人、自動駕駛、工業制造、太空計算、邊緣AI等實際應用,英偉達正在搭建壹套完整閉環的AI體系。
黃仁勳在演講裡反復傳遞壹個核心信息:AI智能體的時代已經來了。英偉達圍繞這壹方向,從底層硬件到上層生態進行了全面部署。
當然,這套體系的效能是否能夠如老黃演講所說,還需要客戶在後續的“落地”過程中檢驗。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見