Fully-supervised CNN-based approaches for learning local image descriptors have shown remarkable results in a wide range of geometric tasks. However, most of them require per-pixel ground-truth keypoint correspondence data which is difficult to acquire at scale. To address this challenge, recent weakly- and self-supervised methods can learn feature descriptors from relative camera poses or using only synthetic rigid transformations such as homographies. In this work, we focus on understanding the limitations of existing self-supervised approaches and propose a set of improvements that combined lead to powerful feature descriptors. We show that increasing the search space from in-pair to in-batch for hard negative mining brings consistent improvement. To enhance the discriminativeness of feature descriptors, we propose a coarse-to-fine method for mining local hard negatives from a wider search space by using global visual image descriptors. We demonstrate that a combination of synthetic homography transformation, color augmentation, and photorealistic image stylization produces useful representations that are viewpoint and illumination invariant. The feature descriptors learned by the proposed approach perform competitively and surpass their fully- and weakly-supervised counterparts on various geometric benchmarks such as image-based localization, sparse feature matching, and image retrieval.


翻译:以CNN为基础的学习本地图像描述器的全受监督的CNN方法在一系列广度的几何任务中显示出了显著的成果,然而,其中多数需要难以大规模获得的每像点地像关键点对应数据。为了应对这一挑战,最近的薄弱和自监督的方法可以从相对相机中学习特征描述器,或者只使用合成硬质变法,例如同质描述器。在这项工作中,我们侧重于了解现有自监督方法的局限性,并提出一套改进办法,从而导致强大的特征描述器。我们表明,增加搜索空间,从地对地对地对硬式关键点对硬点对硬点对应点进行连接,将带来不断的改进。为了提高特征描述器的歧视性,我们提出一种粗略至软的方法,通过使用全球视觉描述器从更广泛的搜索空间中挖掘当地硬的负点。我们展示了合成同质谱转换、颜色增强和基于光真化图像的立体化组合,可以产生有用的演示和不易变的演示。我们表明,为了提高地标本和精确性,拟议中各种图像的精确性对准度,对等机构所学习的特征进行完全具有竞争力和精确的对地测量性对准,对地标。

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【UAI 2019 Tutorials】深度学习数学(Mathematics of Deep Learning)
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
已删除
将门创投
4+阅读 · 2018年6月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
14+阅读 · 2021年8月5日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
已删除
将门创投
4+阅读 · 2018年6月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员