Meta Codec Avatars 實驗室和新加坡南洋理工大學研究人員聯合開發的 URHand,即「通用可變光照手部模型」,可根據用戶的真實雙手進行個性化調整,模擬真實光照下的手部細節。這項技術能將用戶的虛擬手帶入虛擬世界,提升沉浸感和化身認同感。盡管目前尚不清楚何時能轉化為實際產品,但這一成果為解決虛擬現實中手部模型失真問題邁出瞭重要一步,對未來元宇宙中的沉浸式體驗具有重要意義。