美國亞馬遜FAR聯合麻省理工、斯坦福大學等頂尖研究機構最新推出OmniRetarget交互生成引擎,該系統基于交互網格構建,能有效保留智能體與環境的接觸關系,生成運動學可行軌跡。實驗顯示,搭載該技術的宇樹G1人形機器人成功完成了長時程動態任務:搬運椅子作為踏板攀爬桌體,落地時通過跑酷式翻滾緩沖沖擊。
該技術通過優化人類與機器人動作映射,在無需視覺輔助的情況下,僅憑本體感覺策略即可實現多樣運動操作。團隊通過超9小時軌跡驗證,其運動約束達標率顯著優于傳統方案。目前研究論文與數據集已開放,代碼將陸續公開,為人形機器人動態技能開發提供新范式。
免責聲明:本文內容由開放的智能模型自動生成,僅供參考。