With the aim of matching a pair of instances from two different modalities, cross modality mapping has attracted growing attention in the computer vision community. Existing methods usually formulate the mapping function as the similarity measure between the pair of instance features, which are embedded to a common space. However, we observe that the relationships among the instances within a single modality (intra relations) and those between the pair of heterogeneous instances (inter relations) are insufficiently explored in previous approaches. Motivated by this, we redefine the mapping function with relational reasoning via graph modeling, and further propose a GCN-based Relational Reasoning Network (RR-Net) in which inter and intra relations are efficiently computed to universally resolve the cross modality mapping problem. Concretely, we first construct two kinds of graph, i.e., Intra Graph and Inter Graph, to respectively model intra relations and inter relations. Then RR-Net updates all the node features and edge features in an iterative manner for learning intra and inter relations simultaneously. Last, RR-Net outputs the probabilities over the edges which link a pair of heterogeneous instances to estimate the mapping results. Extensive experiments on three example tasks, i.e., image classification, social recommendation and sound recognition, clearly demonstrate the superiority and universality of our proposed model.


翻译:为了匹配两种不同模式的一对实例,跨模式绘图在计算机视觉界引起了越来越多的关注。现有方法通常将绘图功能作为对等实例特征之间的类似度量,这些特征都嵌入共同空间。然而,我们注意到,以往的做法没有充分地探讨单一模式(内部关系)内各实例之间的关系和对等不同实例(相互关系)之间的关系。为此,我们通过图表建模将绘图功能与关联推理重新定位,并进一步提议以GCN为基础的关系推理网络(RR-Net)为基础,高效计算内部和内部关系,以便普遍解决跨模式绘图问题。具体地说,我们首先建了两种图表,即Intra图和Inter图,分别建模内部关系和相互关系。然后,RR-Net以迭接方式更新了所有节点特征和边缘特征,以便同时学习内部和相互关系。最后,RR-Net生成了将各种差异实例与估算结果联系起来的边缘的概率。在三种模型上进行广泛的实验,清晰地展示了我们所提出的社会优越性、树立的图像。

0
下载
关闭预览

相关内容

两人亲密社交应用,官网: trypair.com/
注意力机制综述
专知会员服务
83+阅读 · 2021年1月26日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Attention!注意力机制模型最新综述
专知
65+阅读 · 2019年4月8日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
VIP会员
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Attention!注意力机制模型最新综述
专知
65+阅读 · 2019年4月8日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Top
微信扫码咨询专知VIP会员