Meta用一个头显搞定全身动捕,无需手柄和下身传感器,网友:VR终于少点物理挂件了

2022 年 9 月 27 日 量子位
萧箫 发自 凹非寺
量子位 | 公众号 QbitAI

还记得你玩VR的时候,完全看不到自己下半身的样子吗?

毕竟,目前的VR设备通常只有手柄和头显,没有下半身传感器,系统无法直接判断下半身的动作,预测时也容易出bug。

现在,Meta终于迈出了一大步——只凭头显(甚至不用手柄),就能搞定全身动捕,连双腿的不同动作都预测得一清二楚!

新研究一po出就在网上爆火。

有网友调侃,小扎的元宇宙终于要有腿了,顺手还po了个Meta的股票。

还有VR玩家感到高兴:玩游戏时终于可以在身上少挂点硬件了!

这项研究究竟是如何只用头显做到全身动捕的?

给强化学习AI搞个物理约束

研究人员设计了一个框架,以头显(HMD)和手柄控制器的位置方向数据作为输入,其他数据全靠AI预测。

为此,他们先基于强化学习训练了一个策略(policy,基于三层MLP),根据仅有的HMD和手柄数据,尽可能逼真地还原真实动作捕捉的姿势(动捕数据一共10小时)

他们搞了4000个身高不同的仿真人形机器人,每个机器人具有33个自由度。

随后,将这些机器人在英伟达的Isaac Gym(一个专门用于强化学习研究的机器人物理模拟环境)同时进行训练,比单个环境下训练一个机器人要更快。

在物理环境中一共训练了2天(约140亿步)后,这只框架就能基于这个强化学习策略,根据头显和手柄数据直接预测用户全身动作了——

包括慢跑、行走、后退或过渡动作(transition)等。

不仅如此,Isaac Gym还允许添加其他不同的模拟对象,因此还能通过训练环境复杂度以增强动作真实性。

例如,根据虚拟环境中新增的皮球,模拟出“踢”的交互动作:

所以,相比其他模型,为什么这个框架预测的效果更好?

(此前虽然也有手柄和头显预测全身姿态的AI,但预测全身动作时往往会出现身体不自然抖动、走路时脚像是在“滑冰”、接触力不稳定等bug)

Meta研究人员分析后认为,此前模型难以准确预测下半身姿态的原因,是预测时上下半身的关联度较小。

因此,如果在预测时增加一定的物理约束(人体力学),例如惯性平衡和地面接触力等,就能让预测精度更上一层楼。

脚上的红色直条大小表示接触力大小

研究人员还进一步发现,即使不用手柄控制器,只需要头显的60个姿势(包含位置和方向数据),就足以重建各种运动姿态,还原出来的效果同样没有物理伪影。

除此之外,由于这个策略是基于4000个身高不同的仿真人形机器人训练,因此它也能自动根据用户的不同身高来调整策略(具有基于动捕的重定向功能)

不过,也有网友好奇他为什么要采用强化学习来预测运动姿态,毕竟当前监督学习是主流方法。

对此作者回应称,强化学习更方便加入物理约束(即降低抖动、脚滑等bug的关键原因),但对于监督学习来说,这通常是个难点。

但研究人员也表示,目前这个框架还有一定限制,如果用户做的动作不包含在训练数据中(例如快速冲刺)、或是进行了某些过于复杂的交互,那么虚拟环境中的仿真机器人就可能当场跌倒、或出现模拟失败的情况。

作者介绍

三位作者都来自Meta。

一作Alexander W. Winkler,目前是Meta Reality Lab的研究科学家,研究方向是非线性数值优化、高自由度运动规划、基于三维物理的仿真和可视化等。

他本硕毕业于德国卡尔斯鲁厄理工学院(KIT),博士毕业于瑞士苏黎世联邦理工学院(ETH)

Jungdam Won,目前是Meta AI Lab的研究科学家,本科和博士毕业于韩国首尔大学计算机科学与工程系,研究方向包括强化学习中智能体的控制和交互,以及通过机器学习方法优化动作捕捉等。

Yuting Ye,目前是Meta Reality Lab的研究科学家,参与过Quest和Quest 2的手柄跟踪功能研发,本科毕业于北京大学,并在弗吉尼亚大学获得硕士学位,博士毕业于佐治亚理工学院,研究方向是动作捕捉和元宇宙等。

论文地址:
https://arxiv.org/abs/2209.09391

参考链接:
https://twitter.com/awinkler_/status/1572968904401776641

「2022人工智能年度评选」火热报名中

现在,量子位「2022人工智能年度评选」已经正式启幕,评选将从企业、人物、产品/解决方案三大维度设置5类奖项。

更多关于评选标准、榜单报名欢迎扫描下方二维码~


点这里关注我 👇 记得标星噢 ~


一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~  



登录查看更多
0

相关内容

IEEE虚拟现实会议一直是展示虚拟现实(VR)广泛领域研究成果的主要国际场所,包括增强现实(AR),混合现实(MR)和3D用户界面中寻求高质量的原创论文。每篇论文应归类为主要涵盖研究,应用程序或系统,并使用以下准则进行分类:研究论文应描述有助于先进软件,硬件,算法,交互或人为因素发展的结果。应用论文应解释作者如何基于现有思想并将其应用到以新颖的方式解决有趣的问题。每篇论文都应包括对给定应用领域中VR/AR/MR使用成功的评估。 官网地址:http://dblp.uni-trier.de/db/conf/vr/
超视距空战的交战决策支持
专知会员服务
85+阅读 · 2022年6月23日
[ICCV2021]自适应多模态选取框架用于视频理解
专知会员服务
17+阅读 · 2021年10月30日
【CMU博士论文】机器人深度强化学习,128页pdf
专知会员服务
128+阅读 · 2020年8月27日
戴着VR头盔教机器人抓握,机器人当场就学会了
机器之心
0+阅读 · 2022年10月21日
逐渐涨价的 VR 头显,买来可以玩什么?
少数派
0+阅读 · 2022年8月1日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
3+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年11月28日
Arxiv
0+阅读 · 2022年11月28日
Arxiv
0+阅读 · 2022年11月28日
Arxiv
14+阅读 · 2022年8月25日
已删除
Arxiv
32+阅读 · 2020年3月23日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
3+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员