We present Supervision by Registration and Triangulation (SRT), an unsupervised approach that utilizes unlabeled multi-view video to improve the accuracy and precision of landmark detectors. Being able to utilize unlabeled data enables our detectors to learn from massive amounts of unlabeled data freely available and not be limited by the quality and quantity of manual human annotations. To utilize unlabeled data, there are two key observations: (1) the detections of the same landmark in adjacent frames should be coherent with registration, i.e., optical flow. (2) the detections of the same landmark in multiple synchronized and geometrically calibrated views should correspond to a single 3D point, i.e., multi-view consistency. Registration and multi-view consistency are sources of supervision that do not require manual labeling, thus it can be leveraged to augment existing training data during detector training. End-to-end training is made possible by differentiable registration and 3D triangulation modules. Experiments with 11 datasets and a newly proposed metric to measure precision demonstrate accuracy and precision improvements in landmark detection on both images and video. Code is available at https://github.com/D-X-Y/landmark-detection.


翻译:我们提出注册和三角监督(SRT),这是使用未贴标签的多视图视频来提高里程碑探测器的准确性和准确性的一种不受监督的方法。能够使用未贴标签的数据使我们的探测器能够从大量可免费获取的未贴标签数据中学习,而不受人工人工说明的质量和数量的限制。为了使用未贴标签的数据,我们提出两项关键意见:(1)在相邻框架内同一标志的探测应当与登记(即光学流)保持一致。(2)在多个同步和几何校准的视图中,同一标志的探测应当对应一个单一的3D点,即多视图一致性。登记和多视图一致性是不需要人工标签的监督来源,因此可以在检测培训期间用来加强现有的培训数据。通过不同的登记和3D三角定位模块进行端培训。用11个数据集进行实验,新提出的测量指标显示在图像和视频的标志性探测方面准确性和精确性改进。https://githtub./Ddection-D代码可在https://Xdection-mart-D。

0
下载
关闭预览

相关内容

专知会员服务
61+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
已删除
将门创投
5+阅读 · 2019年3月29日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Arxiv
4+阅读 · 2018年10月5日
Arxiv
7+阅读 · 2018年3月19日
Arxiv
4+阅读 · 2018年3月19日
VIP会员
相关资讯
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
已删除
将门创投
5+阅读 · 2019年3月29日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Top
微信扫码咨询专知VIP会员