Action recognition via 3D skeleton data is an emerging important topic in these years. Most existing methods either extract hand-crafted descriptors or learn action representations by supervised learning paradigms that require massive labeled data. In this paper, we for the first time propose a contrastive action learning paradigm named AS-CAL that can leverage different augmentations of unlabeled skeleton data to learn action representations in an unsupervised manner. Specifically, we first propose to contrast similarity between augmented instances (query and key) of the input skeleton sequence, which are transformed by multiple novel augmentation strategies, to learn inherent action patterns ("pattern-invariance") of different skeleton transformations. Second, to encourage learning the pattern-invariance with more consistent action representations, we propose a momentum LSTM, which is implemented as the momentum-based moving average of LSTM based query encoder, to encode long-term action dynamics of the key sequence. Third, we introduce a queue to store the encoded keys, which allows our model to flexibly reuse proceeding keys and build a more consistent dictionary to improve contrastive learning. Last, by temporally averaging the hidden states of action learned by the query encoder, a novel representation named Contrastive Action Encoding (CAE) is proposed to represent human's action effectively. Extensive experiments show that our approach typically improves existing hand-crafted methods by 10-50% top-1 accuracy, and it can achieve comparable or even superior performance to numerous supervised learning methods.


翻译:通过 3D 骨架数据 识别 3D 骨架数据 的行动是这些年中新出现的一个重要主题。 大多数现有方法要么是提取手工制作的描述符,要么通过需要大量标签数据的受监督学习模式来学习行动表现。 在本文件中,我们首次提议了一个反动的行动学习模式,名为 AS-CAL, 它可以利用未贴标签的骨架数据的不同增强功能, 以不受监督的方式学习动作表现。 具体地说, 我们首先提议将输入骨架序列的强化实例( 询问和关键) 之间的相似性加以对比, 后者由多个新颖的增强战略转换, 学习不同骨架转换的内在行动模式( “ 类型偏差 ” ) 。 其次, 为了鼓励以更一致的动作表现来学习模式( “ 模式” 模式” ), 我们提议了一种动态的LSTMTM, 作为基于 LSTM 查询的动力移动平均数, 来记录关键序列中的长期行动动态。 第三, 我们提出一个队列, 储存编程键, 使我们的模型可以灵活再利用键, 并构建一个更加一致的字典, 来改进对比学习 对比学习。 最后, 通过时间化的缩略取的人类动作的动作的动作, 以显示的动作, 以显示的缩略式的动作的动作的动作的动作的动作, 通过学习方式显示的动作的动作的动作的动作, 的动作的动作的动作, 通过学习方式, 学习。

0
下载
关闭预览

相关内容

专知会员服务
13+阅读 · 2021年5月2日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
31+阅读 · 2020年4月23日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
163+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
“CVPR 2020 接受论文列表 1470篇论文都在这了
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
10+阅读 · 2021年3月30日
VIP会员
相关资讯
“CVPR 2020 接受论文列表 1470篇论文都在这了
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员