-
日期: 2025-07-25 | 來源: 智東西 | 有0人參與評論 | 專欄: 馬斯克 | 字體: 小 中 大
7月23日,Meta現實實驗室(Reality Labs)在Nature上發表最新論文《A generic non-invasive neuromotor interface for human-computer interaction》(用於人機交互的通用非侵入式神經運動接口)。
這項創新主要推出了基於表面肌電圖(sEMG)的通用型非侵入性神經運動接口。該接口以腕帶形式呈現,無需通過侵入性手術,就能夠精准捕捉手腕部位的神經信號,識別包括點擊、滑動和捏合在內的多種手勢意圖,甚至在手部自然下垂的狀態下也能實現隱蔽操作。
與傳統的鍵盤、鼠標、觸摸屏等輸入設備不同,它擺脫了對中間設備的依賴。並且,相較於基於攝像頭或慣性傳感器的手勢系統,它不受動作遮擋的影響。而與侵入性的腦機接口相比,它也無需定制解碼器,且能在不同人群中實現通用化應用。
基於300多名受試者提供的超過100小時肌電數據,研究團隊還開發出具有高度適應性的機器學習模型。該模型最顯著的特點是無需個人校准即可實現高精度手勢識別,而僅需少量個性化數據就能將筆跡識別准確率提升16%。
Meta在2023年通過Orion AR眼鏡原型完成該成果的早期技術驗證。
高靈敏度腕帶+通用解碼模型
為實現這壹突破,研究團隊從硬件和模型兩方面著手。
硬件方面:該團隊研發了壹款高靈敏度、易佩戴的sEMG腕帶(sEMG-RD)。
該腕帶采用幹電極、多通道記錄設計,采樣率達2kHz,噪音低至2.46μVrms,續航超過4小時,且有肆種尺寸以適應不同腕圍。其電極布局經過優化,能精准捕捉手腕、手部和前臂肌肉的電信號,甚至可檢測到單個運動單位動作電位(MUAPs)。
在研發過程中,團隊經過多次材料測試與結構優化,才確定了最終的腕帶設計,以確保其佩戴舒適性與信號采集穩定性的平衡。
數據收集與模型訓練方面:該團隊構建了可擴展的數據收集基礎設施,從數千參與者獲取訓練數據。
基於這些數據,團隊開發出通用的sEMG解碼模型。模型采用了多種深度學習架構,如用於手腕任務的長短期記憶(LSTM)層、用於離散手勢任務的1D卷積層加LSTM層,以及用於手寫任務的Conformer架構等,以適應不同交互場景的需求。
在模型訓練階段,研究人員還運用了遷移學習等先進技術,加速模型收斂,並通過不斷調整超參數,提升模型的泛化能力與准確性。
0.88次/秒手勢識別手寫輸入達20.9字/分鍾
在連續導航任務中,sEMG的閉環手勢解碼中位數性能為0.66次/秒;這意味著用戶在進行連續的手勢操作以控制光標等對象在屏幕上導航時,平均每秒能夠實現0.66次精准的目標獲取,大大提升了操作效率。
- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見