-
日期: 2024-10-31 | 來源: 量子位 | 有0人參與評論 | 字體: 小 中 大
且就在剛剛,英偉達新發布了HOVER,壹個1.5M參數的神經網絡控制器,用於人形機器人的全身運動和操作協調。
據負責英偉達具身智能實驗室(GEAR)的Jim Fan介紹:
人類在行走、保持平衡以及操縱肆肢到達期望位置時,需要大量的潛意識處理。我們在HOVER中捕捉了這種“潛意識”,這是壹個單壹模型,學習如何協調人形機器人的電機以支持運動和操縱。
我們在NVIDIA Isaac中訓練了HOVER,這是壹個GPU驅動的仿真套件,能夠實現比現實時間快10000倍的物理模擬速度。
為了直觀理解這個數字,機器人在虛擬“道場”中經歷了壹年的密集訓練,但在壹塊GPU卡上僅花費了大約50分鍾的真實時間。然後,神經網絡無需微調即可零樣本遷移到現實世界。
簡單說,HOVER可以被“提示”執行各種指令,英偉達稱之為“控制模式”。比如:
頭部和手部姿勢:可以通過XR設備如蘋果的Vision Pro捕捉
全身姿勢:通過動作捕捉或RGB相機
全身關節角度:外骨骼
根速度指令:操縱杆
概括而言,HOVER提供了壹個統壹接口,允許使用任何方便的輸入設備來控制機器人。
它簡化了收集全身遙控操作數據的方式,以便於訓練;且作為壹個上游的視覺-語言-動作模型,只要提供運動指令,HOVER就能將其轉換為高頻的低級電機信號。
對此,你怎麼看?- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見