一張圖就能創(chuàng)建上半身動作視頻,方法還入選了ICCV 2025!
來自清華大學(xué)、IDEA(粵港澳大灣區(qū)數(shù)字經(jīng)濟研究院)的研究人員提出新框架GUAVA,不需要多視角視頻、不需要針對不同個體單人訓(xùn)練,僅需0.1秒就能從單圖創(chuàng)建一個上半身3D化身。
通常來說,創(chuàng)建逼真且富有表現(xiàn)力的上半身人體化身(如包含細致面部表情和豐富手勢),在電影、游戲和虛擬會議等領(lǐng)域具有重要價值。
但截至目前,僅憑單張圖像實現(xiàn)這一目標仍然是一個重大挑戰(zhàn),而且同時還需要易于創(chuàng)建和支持實時渲染。
而GUAVA,作為第一個從單張圖像創(chuàng)建可驅(qū)動上半身3D高斯化身的框架,與需要多視圖視頻或單人訓(xùn)練的3D方法不同——可以在秒級時間內(nèi)完成推理重建,并支持實時動畫和渲染。
與基于擴散模型的2D方法相比,GUAVA使用3D高斯來確保更好的ID一致性和實時渲染。而且還引入一種富有表現(xiàn)力的人體模型EHM,解決了現(xiàn)有模型在捕捉細致面部表情方面的局限性。
此外,它還利用逆紋理映射技術(shù)以準確地預(yù)測高斯紋理,并結(jié)合一個神經(jīng)渲染器來提高渲染質(zhì)量。
實驗結(jié)果顯示,GUAVA在渲染質(zhì)量和效率方面優(yōu)于現(xiàn)有2D和3D方法。
下面詳細來看GUAVA所采用的方法。
具體方法
3DGS的興起催生了許多3D化身重建方法,然而這些方法仍然存在一些局限性:
- 逐ID練:每個個體都需要單獨訓(xùn)練;
- 訓(xùn)練復(fù)雜性:該過程耗時,需要標定的多視圖或單目視頻;
- 表現(xiàn)力有限:頭部重建方法缺乏身體動作表示,而全身方法則忽略了細致的面部表情。
另外,擴散模型在視頻生成方面取得了顯著成果。一些工作通過添加額外條件,如關(guān)鍵點或SMPLX渲染圖,來引導(dǎo)擴散模型的生成過程,擴展了模型在生成可控人體動畫視頻上的應(yīng)用。
但問題是,雖然這些方法實現(xiàn)了良好的視覺效果,其局限性卻依舊存在:
- ID一致性:難以保持一致的ID,尤其是在姿勢發(fā)生大變化時;
- 效率:高計算成本和多步去噪導(dǎo)致推理速度慢,阻礙了實時應(yīng)用;
- 視點控制:2D方法無法輕松調(diào)整相機姿勢,從而限制了視點控制。
而GUAVA則通過以下舉措進行了改進。
(1)EHM模型與精確跟蹤
為了解決SMPLX模型在捕捉面部表情上的不足,GUAVA引入了EHM(Expressive Human Model)。
EHM結(jié)合了SMPLX和FLAME模型,能夠?qū)崿F(xiàn)更準確的面部表情表示。
同時,研究人員設(shè)計了對應(yīng)的兩階段追蹤方法,實現(xiàn)從單張圖像到姿態(tài)的準確估計——首先利用預(yù)訓(xùn)練模型進行粗略估計,然后使用2D關(guān)鍵點損失進行精細優(yōu)化,從而為重建提供精確的姿勢和表情參數(shù)。
(2)快速重建與雙分支模型
GUAVA基于追蹤后的圖像,通過單次前向推理方式完成化身的重建。
它包含兩個分支:一個分支根據(jù)EHM頂點和投影特征預(yù)測粗略的“模板高斯”,另一個分支則通過“逆紋理映射”技術(shù),將屏幕特征映射到UV空間,生成捕捉精細細節(jié)的“UV高斯”。
這兩種高斯組合成完整的Ubody高斯,從而在保持幾何結(jié)構(gòu)的同時,捕捉豐富的紋理細節(jié)。
(3)實時動畫與渲染
重建完成后,Ubody高斯可以根據(jù)新的姿勢參數(shù)進行變形和動畫。
最后,通過神經(jīng)細化器對渲染的圖像進行優(yōu)化,以增強細節(jié)和渲染質(zhì)量。
實驗環(huán)節(jié)
實驗設(shè)置方面,研究人員從YouTube、OSX和HowToSign收集視頻數(shù)據(jù)集,主要關(guān)注人體上半身視頻。
其中訓(xùn)練集包含超過62萬幀,測試集包含58個ID。
為確保評估的全面性,實驗采用了多種指標:
- 自重演(self-reenactment)場景下,通過PSNR、L1、SSIM和LPIPS評估動畫結(jié)果的圖像質(zhì)量;
- 跨重演(cross-reenactment)場景下,使用ArcFace計算身份保留分數(shù)(IPS)以衡量ID一致性。
評估中與MagicPose、Champ、MimicMotion等2D方法以及GART、GaussianAvatar和ExAvatar 3D方法進行比較。
定量結(jié)果如下:
(1)Self-reenactment
與2D方法相比,GUAVA在所有指標(PSNR, L1, SSIM, LPIPS)上均表現(xiàn)最佳,并在動畫和渲染速度上達到約50 FPS,而其他方法僅為每秒幾幀。
與3D方法相比,GUAVA的重建時間僅為0.1秒左右,而其他方法需要數(shù)分鐘到數(shù)小時。
(2)Cross-reenactment
GUAVA在身份保留分數(shù)(IPS)上顯著優(yōu)于其他所有2D方法,證明了其在不同姿勢下保持ID一致性的能力。
定性結(jié)果顯示,盡管2D方法能生成高質(zhì)量圖像,但它們在保持ID一致性和準確恢復(fù)復(fù)雜手勢及面部表情方面存在不足。
例如,Champ的手部模糊 ,MagicPose存在失真 ,而MimicMotion則無法保持ID一致性。
3D方法在處理精細的手指和面部表情方面存在困難,也缺乏泛化能力,在未見區(qū)域或極端姿勢下會產(chǎn)生偽影。
GUAVA則能對未見區(qū)域生成合理的結(jié)果,在極端姿勢下表現(xiàn)出更好的魯棒性,并提供更準確、更細致的手部和面部表情。
為了驗證方法中各個部分的有效性,論文還進行了充分的消融實驗。
小結(jié)一下,論文所提出的GUAVA,是一個用于從單張圖像重建可動畫、具有細膩表現(xiàn)力上半身3D化身的快速框架。
研究通過引入EHM模型及其精確跟蹤方法,增強了面部表情、形狀和姿勢的捕捉能力,并通過UV高斯和模板高斯的兩個推理分支共同構(gòu)建一個上半身高斯。
實驗結(jié)果表明,GUAVA在渲染質(zhì)量和效率方面均優(yōu)于現(xiàn)有方法。它實現(xiàn)了約0.1秒的重建時間,并支持實時動畫和渲染。
目前相關(guān)代碼已開源,感興趣可以進一步關(guān)注。
論文地址: https://arxiv.org/pdf/2505.03351
項目主頁:https://eastbeanzhang.github.io/GUAVA/
開源代碼:https://github.com/Pixel-Talk/GUAVA
視頻Demo: https://www.bilibili.com/video/BV1k45AzaEpW/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.