人類在閣樓清理雜物時(shí),往往只需拿起盒子輕輕搖晃,無需開箱就能猜出里面裝了什么。如今,麻省理工學(xué)院、亞馬遜機(jī)器人和哥倫比亞大學(xué)的研究人員教會了機(jī)器人掌握類似的技能。
他們開發(fā)出一種新技術(shù),讓機(jī)器人僅通過內(nèi)置傳感器,就能在抓取并輕搖物體后判斷其重量、軟硬度或內(nèi)部物品。這種方法無需外部測量工具或攝像頭,機(jī)器人能在數(shù)秒內(nèi)準(zhǔn)確估算出物體質(zhì)量等參數(shù)。這項(xiàng)低成本技術(shù)在攝像頭難以發(fā)揮作用的場景中尤為實(shí)用——比如在黑暗的地下室分揀物品,或在地震后部分坍塌的建筑物內(nèi)清理廢墟。
該技術(shù)的核心在于模擬計(jì)算:通過整合機(jī)器人模型與物體模型,在機(jī)械臂操作過程中快速識別物體特性。研究顯示,這種新技術(shù)在估算物體質(zhì)量方面,與依賴計(jì)算機(jī)視覺的復(fù)雜昂貴方法效果相當(dāng)。此外,這種高效的數(shù)據(jù)處理方法具備強(qiáng)大適應(yīng)性,能應(yīng)對多種未預(yù)見的場景。
"這個構(gòu)想具有普適性,我認(rèn)為我們才剛剛觸及機(jī)器人通過這種方式能實(shí)現(xiàn)的學(xué)習(xí)潛力。"論文第一作者、麻省理工學(xué)院博士后 Peter Yichen Chen 表示,"我的理想是讓機(jī)器人走進(jìn)現(xiàn)實(shí)世界,通過觸摸和移動環(huán)境中的物體,自主理解所有交互對象的特性。"
研究團(tuán)隊(duì)還包括麻省理工學(xué)院博士后 Chao Liu、2025 屆博士生 Pingchuan Ma、2024 屆碩士生Jack Eastman;亞馬遜機(jī)器人的 Dylan Randle 和 Yuri Ivanov;麻省理工學(xué)院電氣工程與計(jì)算機(jī)科學(xué)教授 Daniela Rus 和 Wojciech Matusik。該研究成果將在國際機(jī)器人與自動化會議上發(fā)表。
感知信號
研究團(tuán)隊(duì)的方法利用了本體感覺——即人類或機(jī)器人感知自身空間運(yùn)動和位置的能力。
例如,健身者在舉起啞鈴時(shí),即使手握啞鈴,也能通過手腕和二頭肌感知其重量。同理,機(jī)器人也能通過機(jī)械臂的多個關(guān)節(jié)“感受”物體的重量。“人類無法精確測量手指關(guān)節(jié)角度或施加在物體上的扭矩值,但機(jī)器人可以。我們正是利用了這種優(yōu)勢。” Chao Liu 解釋道。
當(dāng)機(jī)器人舉起物體時(shí),該系統(tǒng)會收集關(guān)節(jié)編碼器的信號。這些傳感器能檢測機(jī)械臂運(yùn)動時(shí)關(guān)節(jié)的旋轉(zhuǎn)位置和速度。Chao Liu 補(bǔ)充指出,多數(shù)機(jī)器人的驅(qū)動電機(jī)都內(nèi)置關(guān)節(jié)編碼器,這使得該技術(shù)比需要額外觸覺傳感器或視覺追蹤系統(tǒng)的方法更具成本優(yōu)勢。
為估算機(jī)器人與物體交互時(shí)的物體特性,該系統(tǒng)依賴兩個模型:一個模擬機(jī)器人及其運(yùn)動,另一個模擬物體動力學(xué)特性?!皹?gòu)建精確的現(xiàn)實(shí)世界數(shù)字孿生體對我們的方法至關(guān)重要?!盰ichen Chen 強(qiáng)調(diào)。
他們的算法會“觀察”機(jī)器人與物體在物理交互中的運(yùn)動,利用關(guān)節(jié)編碼器數(shù)據(jù)逆向推算出物體屬性。例如,當(dāng)施加相同作用力時(shí),較重物體的運(yùn)動速度會明顯慢于較輕物體。
可微分仿真技術(shù)
研究團(tuán)隊(duì)采用了一種名為“可微分仿真”的技術(shù),該技術(shù)能讓算法預(yù)測物體屬性(如質(zhì)量或軟硬度)的微小變化會如何影響機(jī)器人關(guān)節(jié)的最終位置。研究人員使用英偉達(dá)開源的 Warp 庫構(gòu)建仿真系統(tǒng),該開發(fā)者工具支持可微分仿真。
當(dāng)仿真結(jié)果與機(jī)器人實(shí)際運(yùn)動軌跡吻合時(shí),系統(tǒng)即成功識別物體屬性。該算法僅需觀察機(jī)器人運(yùn)動的一次真實(shí)軌跡,便能在數(shù)秒內(nèi)完成計(jì)算。“從技術(shù)上講,只要掌握物體模型和機(jī)器人施力方式,就能推算出目標(biāo)參數(shù)?!盋hao Liu 表示。
雖然當(dāng)前實(shí)驗(yàn)僅用于識別物體質(zhì)量和軟硬度,但該方法同樣適用于測算轉(zhuǎn)動慣量或容器內(nèi)液體黏度等特性。相較于依賴計(jì)算機(jī)視覺或外部傳感器的方法,該算法無需龐大訓(xùn)練數(shù)據(jù)集,在面對未知環(huán)境或新物體時(shí)更具魯棒性。
未來,團(tuán)隊(duì)計(jì)劃將該方法與計(jì)算機(jī)視覺結(jié)合,開發(fā)更強(qiáng)大的多模態(tài)感知技術(shù)。“本研究并非要取代計(jì)算機(jī)視覺,兩種方法各有優(yōu)劣。但我們證明了無需攝像頭也能測定某些屬性?!盰ichen Chen 強(qiáng)調(diào)。他們還計(jì)劃將研究拓展至軟體機(jī)器人等復(fù)雜系統(tǒng),以及晃動液體、沙粒等流固耦合介質(zhì)。
長遠(yuǎn)來看,該技術(shù)有望提升機(jī)器人學(xué)習(xí)能力,使其快速掌握新操作技能并適應(yīng)環(huán)境變化。未參與該研究的英偉達(dá)仿真技術(shù)高級總監(jiān) Miles Macklin 評價(jià):“僅憑有限或噪聲數(shù)據(jù)推算物體物理特性一直是機(jī)器人領(lǐng)域的難題。這項(xiàng)研究證明,機(jī)器人僅需內(nèi)部關(guān)節(jié)傳感器就能準(zhǔn)確推斷質(zhì)量、軟硬度等屬性,無需外部攝像頭或?qū)S脺y量工具?!?/p>
https://news.mit.edu/2025/system-lets-robots-identify-objects-properties-through-handling-0508
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.