We propose a novel cost aggregation network, called Cost Aggregation Transformers (CATs), to find dense correspondences between semantically similar images with additional challenges posed by large intra-class appearance and geometric variations. Cost aggregation is a highly important process in matching tasks, which the matching accuracy depends on the quality of its output. Compared to hand-crafted or CNN-based methods addressing the cost aggregation, in that either lacks robustness to severe deformations or inherit the limitation of CNNs that fail to discriminate incorrect matches due to limited receptive fields, CATs explore global consensus among initial correlation map with the help of some architectural designs that allow us to fully leverage self-attention mechanism. Specifically, we include appearance affinity modeling to aid the cost aggregation process in order to disambiguate the noisy initial correlation maps and propose multi-level aggregation to efficiently capture different semantics from hierarchical feature representations. We then combine with swapping self-attention technique and residual connections not only to enforce consistent matching but also to ease the learning process, which we find that these result in an apparent performance boost. We conduct experiments to demonstrate the effectiveness of the proposed model over the latest methods and provide extensive ablation studies. Code and trained models are available at https://github.com/SunghwanHong/CATs.


翻译:我们提议建立一个新的成本汇总网络,称为成本聚合变异器(CATs),以寻找在结构上相似的图像之间的密集对应关系,并因大型阶级内外观和几何差异而带来更多的挑战。成本汇总是匹配任务的一个非常重要的过程,匹配的准确性取决于其产出的质量。与处理成本汇总的手工制作或有线电视新闻网方法相比,成本汇总是一个非常重要的过程。与处理成本汇总的手工制作或有线电视新闻网方法相比,对于严重变形缺乏强力或继承CNN没有因有限的可接受字段而歧视不正确匹配的局限性,CATs探索初始相关地图之间的全球共识,借助一些建筑设计,使我们能够充分利用自我注意机制。具体地说,我们进行了模拟,以帮助成本汇总进程,从而消除初始热度相关地图的模糊性,并提议多层次汇总,以便有效捕捉到与等级特征描述不同的语义。然后我们与自留技术和留线连接的互换不仅能够执行一致的匹配,而且能够缓解学习过程,我们发现这些结果明显地促进业绩。我们进行了实验,以显示拟议的模型在最新的模型/HLADRM 和Abs 的模型上进行了广泛的研究。

0
下载
关闭预览

相关内容

【CVPR2020】跨模态哈希的无监督知识蒸馏
专知会员服务
61+阅读 · 2020年6月25日
已删除
将门创投
7+阅读 · 2020年3月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Arxiv
11+阅读 · 2021年10月26日
Arxiv
3+阅读 · 2020年11月26日
Arxiv
3+阅读 · 2018年3月5日
VIP会员
相关VIP内容
【CVPR2020】跨模态哈希的无监督知识蒸馏
专知会员服务
61+阅读 · 2020年6月25日
相关资讯
已删除
将门创投
7+阅读 · 2020年3月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Top
微信扫码咨询专知VIP会员