-
日期: 2025-12-01 | 來源: IT之家 | 有0人參與評論 | 字體: 小 中 大
IT之家 12 月 2 日消息,英偉達周壹宣布推出新的基礎設施與人工智能模型,旨在構建“具身智能”(Physical AI)的核心技術基礎,包括能夠感知並與現實世界互動的機器人和自動駕駛車輛。
這家半導體巨頭在加利福尼亞州聖地亞哥舉行的 NeurIPS 人工智能大會上發布了 Alpamayo-R1—— 壹款面向自動駕駛研究的開源推理型視覺語言模型。該公司稱,這是業界首個專注於自動駕駛領域的視覺語言動作模型。視覺語言模型能夠同時處理文本與圖像信息,使車輛能夠“看見”周圍環境,並基於所感知的內容做出決策。
該新模型基於英偉達此前推出的 Cosmos-Reason 推理模型構建,後者具備在響應前對決策進行邏輯推演的能力。英偉達最初於 2025 年 1 月發布了 Cosmos 模型系列,並於同年 8 月推出了更多擴展版本。
英偉達在壹篇博客文章中指出,Alpamayo-R1 這類技術對於致力於實現 L4 級自動駕駛的企業至關重要。L4 級自動駕駛指在特定區域和限定條件下實現完全自動駕駛。
英偉達希望,此類具備推理能力的模型能賦予自動駕駛車輛類似人類的“常識”,從而更妥善地應對復雜的駕駛場景中的細微決策。
目前,該新模型已在 GitHub 和 Hugging Face 平台開源發布。
除發布新視覺模型外,英偉達還同步在 GitHub 上推出了名為“Cosmos Cookbook”的全套開發資源包,包含分步指南、推理工具及訓練後工作流,以幫助開發者針對自身應用場景更高效地使用和訓練 Cosmos 系列模型。該資源包涵蓋數據整理、合成數據生成以及模型評估等關鍵環節。
上述發布正值英偉達全力進軍具身智能領域,將其視為其先進 AI GPU 技術的新增長方向。
IT之家注意到,英偉達聯合創始人兼首席執行官黃仁勳多次表示,人工智能的下壹波浪潮將是具身智能。今年夏天,英偉達首席科學家比爾?達利(Bill Dally)在接受 TechCrunch 采訪時也表達了相同觀點,並特別強調了具身智能在機器人領域的應用前景。
“我認為,機器人最終將成為全球的重要角色,而我們的目標就是打造所有機器人的‘大腦’,”達利當時表示,“要實現這壹目標,我們必須從現在開始研發關鍵技術。”
這家最好!股市開戶分批買入大盤股指基金- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見