We propose the task of forecasting characteristic 3D poses: from a monocular video observation of a person, to predict a future 3D pose of that person in a likely action-defining, characteristic pose - for instance, from observing a person reaching for a banana, predict the pose of the person eating the banana. Prior work on human motion prediction estimates future poses at fixed time intervals. Although easy to define, this frame-by-frame formulation confounds temporal and intentional aspects of human action. Instead, we define a semantically meaningful pose prediction task that decouples the predicted pose from time, taking inspiration from goal-directed behavior. To predict characteristic poses, we propose a probabilistic approach that first models the possible multi-modality in the distribution of likely characteristic poses. It then samples future pose hypotheses from the predicted distribution in an autoregressive fashion to model dependencies between joints and finally optimizes the resulting pose with bone length and angle constraints. To evaluate our method, we construct a dataset of manually annotated characteristic 3D poses. Our experiments with this dataset suggest that our proposed probabilistic approach outperforms state-of-the-art methods by 22% on average.


翻译:我们提出预测3D特征的任务:从一个人的单眼视频观察中,预测一个人在可能的行动定义中的未来3D形象,特征构成——例如,观察一个人达到香蕉,预测吃香蕉的人的构成;先前关于人类运动预测的工作估计未来在固定的时间间隔中构成;虽然容易确定,但这一框架的编制方式会混淆人类行动的时空和故意方面。相反,我们界定了一种从时间上将预测的构成分解出来、从目标方向行为中得到启发的具有意义的具有地震意义的预测意义的预测任务。为了预测特征,我们提出了一种概率性方法,首先对可能特性分布的可能多模式进行模型;然后,对未来进行抽样,从预测的分布中产生假象,以自动回溯性的方式模拟连接之间的依赖性,并最终将由此造成的构成与骨头长度和角度限制的最佳性。为了评估我们的方法,我们设计了一个人工显示3D特征特征的数据集。我们对这一数据设置的实验表明,我们提议的预测的预测性平均方法是22 %的状态方法。

1
下载
关闭预览

相关内容

3D是英文“Three Dimensions”的简称,中文是指三维、三个维度、三个坐标,即有长、有宽、有高,换句话说,就是立体的,是相对于只有长和宽的平面(2D)而言。
专知会员服务
72+阅读 · 2021年1月12日
专知会员服务
41+阅读 · 2020年12月1日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
专知会员服务
60+阅读 · 2020年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
已删除
将门创投
4+阅读 · 2019年8月22日
CVPR 2019 | 重磅!34篇 CVPR2019 论文实现代码
AI研习社
11+阅读 · 2019年6月21日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【ECCV2018】24篇论文代码实现
专知
17+阅读 · 2018年9月10日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2019年8月22日
CVPR 2019 | 重磅!34篇 CVPR2019 论文实现代码
AI研习社
11+阅读 · 2019年6月21日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【ECCV2018】24篇论文代码实现
专知
17+阅读 · 2018年9月10日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员