Recently, Transformer-based networks have shown great promise on skeleton-based action recognition tasks. The ability to capture global and local dependencies is the key to success while it also brings quadratic computation and memory cost. Another problem is that previous studies mainly focus on the relationships among individual joints, which often suffers from the noisy skeleton joints introduced by the noisy inputs of sensors or inaccurate estimations. To address the above issues, we propose a novel Transformer-based network (IIP-Transformer). Instead of exploiting interactions among individual joints, our IIP-Transformer incorporates body joints and parts interactions simultaneously and thus can capture both joint-level (intra-part) and part-level (inter-part) dependencies efficiently and effectively. From the data aspect, we introduce a part-level skeleton data encoding that significantly reduces the computational complexity and is more robust to joint-level skeleton noise. Besides, a new part-level data augmentation is proposed to improve the performance of the model. On two large-scale datasets, NTU-RGB+D 60 and NTU RGB+D 120, the proposed IIP-Transformer achieves the-state-of-art performance with more than 8x less computational complexity than DSTA-Net, which is the SOTA Transformer-based method.


翻译:最近,以变异器为基础的网络在基于骨架的行动识别任务上表现出巨大的希望。捕捉全球和地方依赖性的能力是成功的关键,同时也带来二次计算和记忆成本。另一个问题是,以前的研究主要侧重于单个联合体之间的关系,这往往受到传感器的噪音输入或不准确估计带来的噪音骨架联合的影响。为了解决上述问题,我们提议建立一个新的基于变异器的网络(IIP-Transexter ), 而不是利用个人联合体之间的相互作用,我们的IP-Transefer整合机体的连接和部分互动,从而能够有效和有效地捕捉联合(部内)和部分(部间)依赖性。从数据方面看,我们引入了部分级骨架数据编码,大大降低计算的复杂性,并更有力地应对联合骨架噪音。此外,我们提议采用新的半级数据扩充来改进模型的性能。在两个大型数据集上,即NTU-RGB+D60和NTU RGB+120, 从而能够有效和有效地捕捉到联合(部间)和部分(部间)依赖)。从部分一级(部间)依赖。从数据方面,我们提出的IIP-Trade-Tradestreft-Trade-trax-tradeal的计算法比更低的8-SIT-II-Syal-II-II-II-II-II-II-II-II-S-S-S-II-S-S-II-II-II-II-S-II-II-II-II-II-II-II-S-II-II-更低的计算方法实现更低的复杂性性能性能-制-制-制-制-制-制-制-制-制-制-制-制-制-制方法。

0
下载
关闭预览

相关内容

CC在计算复杂性方面表现突出。它的学科处于数学与计算机理论科学的交叉点,具有清晰的数学轮廓和严格的数学格式。官网链接:https://link.springer.com/journal/37
【PAISS 2021 教程】概率散度与生成式模型,92页ppt
专知会员服务
33+阅读 · 2021年11月30日
专知会员服务
45+阅读 · 2021年9月3日
最新《Transformers模型》教程,64页ppt
专知会员服务
307+阅读 · 2020年11月26日
数据科学导论,54页ppt,Introduction to Data Science
专知会员服务
41+阅读 · 2020年7月27日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
【泡泡一分钟】基于运动估计的激光雷达和相机标定方法
泡泡机器人SLAM
25+阅读 · 2019年1月17日
人工智能 | 国际会议信息6条
Call4Papers
4+阅读 · 2019年1月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Arxiv
11+阅读 · 2021年10月26日
Arxiv
3+阅读 · 2021年10月14日
Arxiv
7+阅读 · 2021年6月21日
Arxiv
4+阅读 · 2020年3月27日
VIP会员
相关VIP内容
【PAISS 2021 教程】概率散度与生成式模型,92页ppt
专知会员服务
33+阅读 · 2021年11月30日
专知会员服务
45+阅读 · 2021年9月3日
最新《Transformers模型》教程,64页ppt
专知会员服务
307+阅读 · 2020年11月26日
数据科学导论,54页ppt,Introduction to Data Science
专知会员服务
41+阅读 · 2020年7月27日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
相关资讯
Top
微信扫码咨询专知VIP会员