-
日期: 2026-01-24 | 來源: 新智元 | 有0人參與評論 | 字體: 小 中 大
如果機器人需要把視頻傳到雲端,等AI分析完再做決策,可能需要幾百毫秒甚至幾秒——那時候工人可能已經被撞倒了。
機器人需要的是低於100毫秒的實時反應。
這只能靠本地AI來實現。
Gemini Robotics正是為此而生。它可以同時處理視覺、觸覺、本體感知(機器人知道自己的手腳在哪裡)等多種數據,並在毫秒級做出運動控制決策。
壹個你可能沒聽說過的人
2024年11月,谷歌DeepMind悄悄做了壹件事:挖來了波士頓動力的前首席技術官Aaron Saunders。
Aaron Saunders是波士頓動力技術的靈魂人物之壹。
他在那裡待了拾幾年,主導了Atlas早期版本的開發。
他離開波士頓動力,加入谷歌DeepMind的機器人團隊——這個動作本身就說明了谷歌的野心。
他們不是在做壹個“合作項目”,他們是在打造壹個機器人帝國。
而這個帝國的飛輪效應,和特斯拉的自動駕駛如出壹轍:
每壹台部署在工廠裡的Atlas機器人,都會產生真實世界的訓練數據。
這些數據會被用來訓練下壹代Gemini Robotics模型。
新模型又會讓機器人更聰明、更高效。更高效意味著更多客戶願意買,更多機器人被部署,產生更多數據……
這是壹個數據飛輪,和特斯拉用百萬輛車收集自動駕駛數據是同壹個邏輯。
區別在於:谷歌做AI基礎模型已經超過拾年了,而特斯拉才做了伍年。
為什麼這比英偉達的新芯片更重要?
讓我們回到CES2026的現場。
英偉達發布了Vera Rubin芯片,這是他們最新壹代的AI芯片。
官方宣稱:推理成本降低10倍,訓練MoE模型需要的GPU數量減少4倍。預計2026年下半年量產。
這當然是很厲害的技術突破。但這是壹個漸進式的改進——更快、更便宜、更省電。
而谷歌和波士頓動力的合作,是壹個范式轉換。
過去拾年,AI的算力需求主要來自數據中心。
英偉達的生意,本質上是把GPU賣給雲計算公司,讓它們在機房裡訓練和運行大模型。
但機器人需要的不是數據中心裡的AI。
機器人需要邊緣AI——在機器人自己的芯片上運行的AI,能夠實時處理傳感器數據,做出即時決策。
這是完全不同的技術路線。
數據中心AI:拼的是算力規模,誰的GPU多誰厲害
邊緣AI:拼的是效率和延遲,在有限的算力下做到足夠聰明
數據中心AI:拼的是算力規模,誰的GPU多誰厲害
邊緣AI:拼的是效率和延遲,在有限的算力下做到足夠聰明
Gemini Robotics代表的是AI從雲端走向終端的新時代。
更重要的是,這個合作完成了壹個其他人幾乎無法復制的組合:
軟件可以被復制- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見