Graph Neural Network (GNN) is a powerful model to learn representations and make predictions on graph data. Existing efforts on GNN have largely defined the graph convolution as a weighted sum of the features of the connected nodes to form the representation of the target node. Nevertheless, the operation of weighted sum assumes the neighbor nodes are independent of each other, and ignores the possible interactions between them. When such interactions exist, such as the co-occurrence of two neighbor nodes is a strong signal of the target node's characteristics, existing GNN models may fail to capture the signal. In this work, we argue the importance of modeling the interactions between neighbor nodes in GNN. We propose a new graph convolution operator, which augments the weighted sum with pairwise interactions of the representations of neighbor nodes. We term this framework as Bilinear Graph Neural Network (BGNN), which improves GNN representation ability with bilinear interactions between neighbor nodes. In particular, we specify two BGNN models named BGCN and BGAT, based on the well-known GCN and GAT, respectively. Empirical results on three public benchmarks of semi-supervised node classification verify the effectiveness of BGNN --- BGCN (BGAT) outperforms GCN (GAT) by 1.6% (1.5%) in classification accuracy.


翻译:GNN的现有努力在很大程度上将图形变迁定义为连接节点特征的加权总和,以形成目标节点的表示。然而,加权和计算总和的操作假定相邻节点彼此独立,忽视它们之间的可能互动。当存在这种互动时,例如两个相邻节点的共同出现,是目标节点特点的强烈信号,现有的GNNN模型可能无法捕捉信号。在这项工作中,我们提出模拟GNN的相邻节点之间相互作用的重要性。我们提议一个新的图形变迁操作器,通过邻居节点代表的对称互动来增加加权和对称。我们把这个框架称为双线图形神经网络(BGNN),它提高GNN代表能力,使相邻节点之间双线互动。特别是,我们根据众所周知的GCN和GAT的GNT(分别为G-GNT)的GNA和GAT的精确度,分别用G-GNT的PI-G(G-G-NT) 的半G-G-G-G-G-IG-G-IG-IG-IG-IG-NT)的准确性三基准,根据G-G-G-IG-G-G-NT-NT-ID-ICT的三基准,分别不透明(B-G-G-I-G-NT-I-I-I-I-I-G-IG-I)的三基准,核查性结果,核查性结果,分别核查结果,分别核查。

1
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
150+阅读 · 2020年6月28日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
155+阅读 · 2020年5月26日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
【NeurIPS2019】图变换网络:Graph Transformer Network
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
Arxiv
8+阅读 · 2019年5月20日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
26+阅读 · 2018年2月27日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
Top
微信扫码咨询专知VIP会员