In recent years, powered by the learned discriminative representation via graph neural network (GNN) models, deep graph matching methods have made great progresses in the task of matching semantic features. However, these methods usually rely on heuristically generated graph patterns, which may introduce unreliable relationships to hurt the matching performance. In this paper, we propose a joint \emph{graph learning and matching} network, named GLAM, to explore reliable graph structures for boosting graph matching. GLAM adopts a pure attention-based framework for both graph learning and graph matching. Specifically, it employs two types of attention mechanisms, self-attention and cross-attention for the task. The self-attention discovers the relationships between features and to further update feature representations over the learnt structures; and the cross-attention computes cross-graph correlations between the two feature sets to be matched for feature reconstruction. Moreover, the final matching solution is directly derived from the output of the cross-attention layer, without employing a specific matching decision module. The proposed method is evaluated on three popular visual matching benchmarks (Pascal VOC, Willow Object and SPair-71k), and it outperforms previous state-of-the-art graph matching methods by significant margins on all benchmarks. Furthermore, the graph patterns learnt by our model are validated to be able to remarkably enhance previous deep graph matching methods by replacing their handcrafted graph structures with the learnt ones.


翻译:近些年来,在通过图形神经网络(GNN)模型(GNN)模型(通过图形神经网络(GNN)模型(GNN)的已知歧视代表法的推动下,深图匹配方法在匹配语义特征的任务中取得了巨大进步。然而,这些方法通常依赖于由超自然生成的图形模式,这些模式可能会引入不可靠的关系来伤害匹配性业绩。在本文中,我们建议建立一个名为GLAM的联合 emph{graph 学习和匹配网络(GLAM) 网络, 以探索用于提振图形匹配的可靠图形结构。 GLAM对图形学习和图形匹配都采用了纯粹的基于关注的框架。具体而言,它采用了两种类型的关注机制,即自我注意和交叉注意来完成任务。自觉意识发现功能之间的关系,并进一步更新所学结构的特征描述;在本文中,我们建议的两个数据集之间的交叉对比关系,称为GLAM。 此外,最后匹配解决方案直接来自跨观察层的输出,而不用特定的匹配决定模块。拟议方法是用三种流行的视觉匹配基准(Pascal VOC、Willowow Olial-stal-coal coal-coal-coal-coild-coir match-coild-coild-coild-coild-coild-coild-coild-s to to to tost tost tost tost couttal-st couttal-s to tost coutututtal-s to tostst codrup codrup cod-tod-tod-tod-tod-st commaild-s tod-st cod-s-s-s-tod-std-std-stital-sildal-std-st coild-st cod-st-st-st commad-sal-std-tod-todal-tod-std-d-st-s-s-s-s-s-s-s-st-st-stal-d-s-tod-tod-tod-tod-tod-tod-tod-stal-s-s-st-

0
下载
关闭预览

相关内容

【CMU】最新深度学习课程, Introduction to Deep Learning
专知会员服务
36+阅读 · 2020年9月12日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
论文浅尝 | Reinforcement Learning for Relation Classification
开放知识图谱
9+阅读 · 2017年12月10日
Representation Learning on Network 网络表示学习
全球人工智能
10+阅读 · 2017年10月19日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
VIP会员
相关VIP内容
【CMU】最新深度学习课程, Introduction to Deep Learning
专知会员服务
36+阅读 · 2020年9月12日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
论文浅尝 | Reinforcement Learning for Relation Classification
开放知识图谱
9+阅读 · 2017年12月10日
Representation Learning on Network 网络表示学习
全球人工智能
10+阅读 · 2017年10月19日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Top
微信扫码咨询专知VIP会员