We present a novel framework for the automatic discovery and recognition of motion primitives in videos of human activities. Given the 3D pose of a human in a video, human motion primitives are discovered by optimizing the `motion flux', a quantity which captures the motion variation of a group of skeletal joints. A normalization of the primitives is proposed in order to make them invariant with respect to a subject anatomical variations and data sampling rate. The discovered primitives are unknown and unlabeled and are unsupervisedly collected into classes via a hierarchical non-parametric Bayes mixture model. Once classes are determined and labeled they are further analyzed for establishing models for recognizing discovered primitives. Each primitive model is defined by a set of learned parameters. Given new video data and given the estimated pose of the subject appearing on the video, the motion is segmented into primitives, which are recognized with a probability given according to the parameters of the learned models. Using our framework we build a publicly available dataset of human motion primitives, using sequences taken from well-known motion capture datasets. We expect that our framework, by providing an objective way for discovering and categorizing human motion, will be a useful tool in numerous research fields including video analysis, human inspired motion generation, learning by demonstration, intuitive human-robot interaction, and human behavior analysis.


翻译:我们提出了一个在人类活动视频中自动发现和识别运动原始材料的新框架。根据人类在视频中3D构成的3D构成,人类运动原始材料通过优化“运动通量”来发现,而“运动通量”是反映一组骨骼关节运动变异的一个数量。我们提出原始材料的正常化,以便使这些原始材料在一个主题解剖变异和数据取样率方面具有差异性。发现原始材料是未知的,没有标签,并且通过等级非参数性贝斯混合模型被不受监督地收集到各个班级中。一旦确定和标记了等级,以建立发现原始材料的模型。一旦确定和标签,它们就会被进一步分析。每个原始模型都由一套有知识的参数来界定。根据新的视频数据以及视频中出现的主题的估计构成,将原始材料分成一些原始材料,根据所学模型参数的参数来认识这些原始材料。利用我们的框架,我们建立了可公开获取的人类运动原始材料数据集,使用从众所周知的运动捕获数据集中提取的序列。我们期望我们的框架,通过提供一种客观的研究方式,通过人类的模型分析,通过一种研究,在人类运动的模型中进行多种分析,通过一种有用的分析,通过提供一种客观的研究,在人类的模型中将人类的模型中,通过一种分析, 一种有用的分析,通过一种分析,通过提供一种对人类的模型进行人类的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型,将一个有用的分析, 一种有用的分析, 一种有用的分析, 一种有用的分析, 将人类的模型来进行,在人类的模型来进行, 一种有用的分析, 一种有用的分析, 一种分析, 一种在一种在人类的实验中, 一种在人类的实验中, 进行大量的实验, 一种在人类的实验中,在人类的实验中,在人类的模型的实验中, 进行, 一种分析, 一种实验中, 进行, 进行, 一种分析, 一种分析, 一种实验中, 一种分析, 一种实验中, 一种实验中, 一种分析, 一种分析, 一种实验中, 一种实验中, 一种分析, 一种分析, 一种实验中, 一种在人类的实验中, 一种分析, 一种分析, 一种实验的, 一种

4
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
人工智能 | 国际会议/SCI期刊约稿信息9条
Call4Papers
3+阅读 · 2018年1月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
4+阅读 · 2020年3月27日
SlowFast Networks for Video Recognition
Arxiv
4+阅读 · 2019年4月18日
Physical Primitive Decomposition
Arxiv
4+阅读 · 2018年9月13日
Arxiv
6+阅读 · 2018年3月28日
VIP会员
相关资讯
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
人工智能 | 国际会议/SCI期刊约稿信息9条
Call4Papers
3+阅读 · 2018年1月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员