In practical application, 3D Human Pose Estimation (HPE) is facing with several variable elements, involving the number of views, the length of the video sequence, and whether using camera calibration. To this end, we propose a unified framework named Multi-view and Temporal Fusing Transformer (MTF-Transformer) to adaptively handle varying view numbers and video length without calibration. MTF-Transformer consists of Feature Extractor, Multi-view Fusing Transformer (MFT), and Temporal Fusing Transformer (TFT). Feature Extractor estimates the 2D pose from each image and encodes the predicted coordinates and confidence into feature embedding for further 3D pose inference. It discards the image features and focuses on lifting the 2D pose into the 3D pose, making the subsequent modules computationally lightweight enough to handle videos. MFT fuses the features of a varying number of views with a relative-attention block. It adaptively measures the implicit relationship between each pair of views and reconstructs the features. TFT aggregates the features of the whole sequence and predicts 3D pose via a transformer, which is adaptive to the length of the video and takes full advantage of the temporal information. With these modules, MTF-Transformer handles different application scenes, varying from a monocular-single-image to multi-view-video, and the camera calibration is avoidable. We demonstrate quantitative and qualitative results on the Human3.6M, TotalCapture, and KTH Multiview Football II. Compared with state-of-the-art methods with camera parameters, experiments show that MTF-Transformer not only obtains comparable results but also generalizes well to dynamic capture with an arbitrary number of unseen views. Code is available in https://github.com/lelexx/MTF-Transformer.


翻译:在实际应用中, 3D Human Pose Estimation (HPE) 面临数个变量元素, 包括视图数量、 视频序列长度, 以及是否使用相机校准。 为此, 我们提议一个名为多视图和时空反光变形器( MTF- Transfer) 的统一框架, 以适应性的方式处理不同的视图数字和视频长度, 而无需校准。 MTF- Transtrafer 由地貌提取器、 多视图使用变形器( MFT ) 和时尚变变变变变器( TFT) 组成。 变色提取器估计每个图像的 2D 构成, 将预测的坐标和信任值编码编码为嵌入3D 嵌入的功能, 作出推断。 它丢弃了图像特性, 将2D 变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形。 MFTFTFT 将不同变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形变形,, 变形变形变形变形变

0
下载
关闭预览

相关内容

专知会员服务
15+阅读 · 2021年10月4日
专知会员服务
88+阅读 · 2021年6月29日
专知会员服务
31+阅读 · 2021年6月12日
【ICML2020】多视角对比图表示学习,Contrastive Multi-View GRL
专知会员服务
79+阅读 · 2020年6月11日
【斯坦福大学】Gradient Surgery for Multi-Task Learning
专知会员服务
46+阅读 · 2020年1月23日
“CVPR 2020 接受论文列表 1470篇论文都在这了
CVPR2019 | Stereo R-CNN 3D 目标检测
极市平台
27+阅读 · 2019年3月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
计算机视觉领域顶会CVPR 2018 接受论文列表
自适应注意力机制在Image Caption中的应用
PaperWeekly
10+阅读 · 2018年5月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
Arxiv
27+阅读 · 2020年12月24日
Arxiv
7+阅读 · 2017年12月26日
VIP会员
相关资讯
“CVPR 2020 接受论文列表 1470篇论文都在这了
CVPR2019 | Stereo R-CNN 3D 目标检测
极市平台
27+阅读 · 2019年3月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
计算机视觉领域顶会CVPR 2018 接受论文列表
自适应注意力机制在Image Caption中的应用
PaperWeekly
10+阅读 · 2018年5月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
Top
微信扫码咨询专知VIP会员