In this paper, we address the problem of estimating the hand pose from the egocentric view when the hand is interacting with objects. Specifically, we propose a method to label a dataset Ego-Siam which contains the egocentric images pair-wisely. We also use the collected pairwise data to train our encoder-decoder style network which has been proven efficient in. This could bring extra training efficiency and testing accuracy. Our network is lightweight and can be performed with over 30 FPS with an outdated GPU. We demonstrate that our method outperforms Mueller et al. which is the state of the art work dealing with egocentric hand-object interaction problems on the GANerated dataset. To show the ability to preserve the semantic information of our method, we also report the performance of grasp type classification on GUN-71 dataset and outperforms the benchmark by only using the predicted 3-d hand pose.


翻译:在本文中, 我们从与对象互动时的自我中心角度来估计手表姿势的问题。 具体地说, 我们提出一种方法来标出包含自我中心图像的数据集 Ego- Siam 。 我们还使用所收集的对称数据来训练我们的编码器- 解码器风格网络, 这可以带来额外的培训效率和测试精度。 我们的网络是轻量级的, 可以用一个过时的 GPU 使用超过 30 个 FPS 进行。 我们证明我们的方法优于 Mueller et al。 这是处理 GANered 数据集中以自我中心为主的手反弹互动问题的艺术工作状态 。 为了显示保存我们方法的语义信息的能力, 我们还报告GUN- 71 数据集的掌握型分类的性能, 并且仅使用预测的 3 d 手姿势来超越基准 。

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
专知会员服务
31+阅读 · 2021年6月12日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】(TensorFlow)SSD实时手部检测与追踪(附代码)
机器学习研究会
11+阅读 · 2017年12月5日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
Arxiv
5+阅读 · 2018年5月22日
VIP会员
Top
微信扫码咨询专知VIP会员