通信世界網(wǎng)消息(CWW)會打拳擊的人形機器人、能疊被子的家庭管家、在跑步機上狂奔的“速度王者”…… 在2025世界機器人大會的現(xiàn)場,上百款不同功能的具身智能機器人令觀眾大飽眼福。
那么,什么是具身智能?背后有哪些技術支撐?未來能幫我們干什么?
什么是具身智能?機器人終于“知行合一”
如果說傳統(tǒng)機器人是“按劇本演戲”,那么具身智能機器人就是“即興表演者”。
簡單說,具身智能指的是機器人不僅有“大腦”(智能模型),還有能感知世界的“身體”(硬件),更能把想法變成行動。就像人類通過眼睛看、耳朵聽、手腳動來理解世界,具身智能機器人靠攝像頭“看”、麥克風“聽”、關節(jié)電機 “動”,在真實環(huán)境中邊學邊做。例如,你讓它“把桌上的水杯遞給奶奶”,它得先認出哪個是水杯、奶奶在哪,再規(guī)劃路線避開地上的拖鞋,最后用恰到好處的力氣拿起杯子——這一系列操作,就是具身智能機器人的“日?!薄?/p>
走進 2025 世界機器人大會展廳,仿佛掉進了“未來生活體驗館”。1500 多臺機器人各顯神通,從工廠車間到家庭客廳,從運動賽場到應急現(xiàn)場,具身智能機器人的存在感越來越強了。
在工業(yè)場景,機器人組隊“打工人”,協(xié)作比人還默契。在優(yōu)必選展臺,一場“機器人流水線秀”正在上演:Walker S2 人形機器人負責抓取零件,Cruzr S2 在旁掃碼登記,UQI 移動機器人 Wali 像個勤快的 "搬運工" 穿梭送料,無人物流車 Chitu 則在出口處打包 —— 整個流程行云流水,連零件擺放角度都分毫不差。
多類型人形機器人與機器人共同在生產(chǎn)線上協(xié)同工作
優(yōu)必選副總裁、研究院院長焦繼超在接受記者采訪時表示,此次優(yōu)必選通過群腦網(wǎng)絡2.0的整體調(diào)度與任務分配管理,多臺Walker S2、Cruzr S2,與UQI優(yōu)奇頂升移動機器人Wali瓦力U600、無人物流車Chitu赤兔協(xié)同展示,成功展現(xiàn)了從物料入庫搬運到智能分揀的全流程作業(yè)。
這可不是簡單的“各干各的”,這些具身智能機器人靠“群腦網(wǎng)絡 2.0”實時溝通:如果某個機器人卡殼,系統(tǒng)會立刻給同伴“派新任務”,就像工廠里的同事互相搭把手。這種“群體智能”,正是具身智能在工業(yè)場景的核心能力——不僅自己能干,還能協(xié)作隊友。
在家庭場景,機器人管家上線,細節(jié)暖到人心。傅利葉展臺前,不少家長帶著孩子圍觀 GR-3 機器人。這臺長得像動畫里“大白”的機器人,用軟乎乎的手臂輕輕拿起繪本,還會根據(jù)孩子的笑聲調(diào)整翻頁速度。當有觀眾伸手摸它的頭時,它會眨?!把劬Α保朴妻D過頭來“對視”。
傅利葉GR-3機器人
值得注意的是,它的“皮膚”用了和嬰兒床墊同款的環(huán)保材料,摔倒時不會磕傷人。工作人員演示:即使故意推它一下,GR-3也僅是趔趄兩步就穩(wěn)穩(wěn)站定。這種親和力設計正是具身智能機器人走進家庭的關鍵——不僅會干活,還得“懂分寸”。
在運動賽場,機器人更是上演“速度與激情”。北京人形機器人創(chuàng)新中心的展臺前,“天工2.0”正在跑步機上進行著行走和奔跑直播,全程無間斷穩(wěn)定運行。作為“亦莊半程馬拉松”人形機器人組冠軍,它現(xiàn)在不僅能跑,還能拿起螺絲刀擰螺絲,甚至和人配合組裝零件。
“天工2.0”人形機器人
而在宇樹科技的擂臺上,兩臺 Unitree G1 機器人正上演“拳擊賽”。閃避、直拳、側踢……動作快得帶起風,拳拳落在對方的“護具”上,發(fā)出沉悶的響聲。工作人員說,它們?nèi)碛?3至43個關節(jié)電機,能完成動態(tài)站起、舞棍等動作。
宇樹科技人形機器人Unitree G1
機器人的“聰明”從哪來?三大核心能力拆解
這些機器人之所以這么“聰明”,背后藏著具身智能的三大“黑科技”。就像人類靠大腦、感官和肌肉協(xié)同工作,機器人的“聰明”也離不開這三部分。
首先,“世界模型”是邁向通用人工智能(AGI)的重要階梯,其通過學習環(huán)境的時空動態(tài),不僅預測未來狀態(tài),還能評估自身行動的后果。想象一下:如果教機器人疊被子,每次做錯都要重新鋪床,多費時間?而“世界模型”就像個“虛擬臥室”,機器人可以在里面反復練習,摔多少次都不用收拾。谷歌 DeepMind 最新發(fā)布的 Genie 3 就能模擬上萬種房間場景,讓機器人在虛擬世界里練熟了再實踐。
宇樹科技創(chuàng)始人、首席執(zhí)行官兼首席技術官王興興認為 “世界模型” 這個方向值得關注,可能會比 VLA 模型更快落地。而且,現(xiàn)在機器人學習新技能得從頭訓練,沒辦法復用舊知識,所以實現(xiàn)類似大模型的持續(xù)學習能力也很迫切。
其次,當前最火的具身智能模型——VLA模型(Vision-Language-Action Model,即視覺-語言-動作模型)就像是機器人的“神經(jīng)中樞”:眼睛看到“水杯”,語言理解“遞給人”,動作系統(tǒng)規(guī)劃“走過去拿杯子”—— 這三步全靠它翻譯。
不過,王興興認為,目前VLA模型的實用性尚存在局限,在對真實世界交互的時候,其數(shù)據(jù)質(zhì)量實際上是不太夠用的。即便是在RL(強化學習)的加持下,該模型架構依然需要繼續(xù)去進行升級和優(yōu)化。
現(xiàn)在的問題不是“沒數(shù)據(jù)”,而是“模型不會用數(shù)據(jù)”。未來的 VLA 模型需要更懂“上下文”。
最后,強化學習是機器人的“試錯神器”。例如,來自深圳鹿明機器人的LUS2,它是全球首個實現(xiàn)“1秒彈射起身”的全尺寸人形機器人,最大突破在于實現(xiàn)了“一秒彈射起身”的敏捷能力,遠超行業(yè)平均3—5秒的恢復時間。鹿明機器人的絕技背后藏著強化學習的秘密,通過強化學習訓練的仿生姿態(tài)算法,在1毫秒內(nèi)完成重心遷移決策,動態(tài)調(diào)整速度比人類反射神經(jīng)快30倍。
現(xiàn)在,強化學習還在和生命科學結合。比如模仿章魚的觸手控制方式,讓機器人的手臂更靈活;學人類的肌肉發(fā)力規(guī)律,讓動作更自然。未來的機器人,可能比我們更懂“怎么用身體”。
未來3-5 年后,機器人會變成什么樣?
在大會主論壇上,專家們預測:未來 3-5 年,具身智能機器人將迎“ChatGPT 時刻”——就像當年 ChatGPT 突然能流暢對話,機器人也會突然能在陌生環(huán)境里聽懂指令、流暢干活。
而產(chǎn)業(yè)規(guī)模早已吹響號角:2024 年中國機器人產(chǎn)業(yè)營收近 2400 億元,2025 年上半年工業(yè)機器人產(chǎn)量增長 35.6%,服務機器人增長 25.5%。從工廠到家庭,從賽場到深海,具身智能機器人正在把“科幻片”變成“紀錄片”。
在2025世界機器人大會的出口處,有個互動屏幕,上面寫著:“你希望機器人幫你做什么?”有人寫“陪老人聊天”,有人寫“修燈泡”,還有人寫“一起踢足球”。
這些愿望的背后,是人類對機器人的期待——不是冷冰冰的機器,而是能感知、能溝通、能協(xié)作的伙伴。具身智能的終極意義,或許不是讓機器人變得和人一樣,而是讓它們用自己的“身體智慧”,幫我們解決那些“不想做、做不到、不敢做”的事。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.