ICLR2021投稿的3篇值得关注的图相关论文:
1.图-图相似网络——将图分类问题转化为一个经典的节点分类问题2.如何找到你的友好邻里:自监督的图注意设计——提出了一种改进的噪声图的图注意模型——自监督图注意网络(SuperGAT)
3.基于边割的图神经网络汇聚——提出了一种基于图的边割的池层来提高分类精度
当GNN显式聚合邻域信息并隐式捕捉图的拓扑结构时,它们忽略了图之间的关系。此文提出了一种图-图相似网络,通过学习图之间的关系来构造超图来解决图的分类问题。 超图中的每个节点代表一个输入图,边的权重表示图之间的相似性。通过这种方法,将图分类问题转化为一个经典的节点分类问题。
在五个广泛使用的基准上的公平设置下的实验证明了该方法的有效性。
该框架由四个部分组成:图卷积网络(GCN)、异构空间对齐、图-图相似网络和超图。输入图被组织成三元组。对于每个三元组,包括锚图、正图和负图,其中正图具有与锚图相同的标签,而负图具有与锚图不同的标签。
首先,所有的图都由一个共享的GCN进行处理,以获得信息嵌入。然后,在异构空间对齐中,所有的嵌入都对齐到相同的分布。对齐后,利用最大汇聚层来获取每个图的特征表示,并设计图-图相似度网络来计算图之间的相似度。最后,利用特征表示和相似度矩阵构造超图。然后,可以将节点分类算法应用于超图,以预测图的标签。
图神经网络中的注意力机制被设计为给重要的邻居节点分配较大的权重,以便更好地表示。然而,图注意力学到的东西并没有被很好地理解,特别是当图是有噪音的时候。此文提出了一种改进的噪声图的图注意模型——自监督图注意网络(SuperGAT)。
作者发现两个图特征影响注意形式和自我监督的有效性:同质性和平均度。因此,提出的方法提供了在这两个图特征已知时使用哪种注意设计的说明。在17个真实世界数据集上的实验表明,所提方法适用于其中15个数据集,并且由它设计的模型显示出比基线更高的性能。
图神经网络(GNNs)在解决图中的节点分类或图分类等问题时非常有效。它们来自于图像上的卷积神经网络到图结构数据的扩展。这些模型在图像识别中非常有效。导致他们成功的另一个方面是他们发现等级结构的能力。这来自于以不同的比例生成不同尺度的输入图像的池操作。同样,为了提高分类精度,我们希望在图中识别不同尺度的模式。 与图像的情况相比,在图上开发池层并不是一件容易的事。这主要是因为在图中,节点是无序的,并且具有不规则的邻域。
为了解决这个问题,此文提出了一种基于图的边割的池层。该汇聚层通过计算与GNN的信息传播过程中的边的重要性相对应的边分数来工作。此外,作者定义了一个正则化函数,目的是产生最小化minCUT问题的边缘分数。最后,通过大量的实验证明了该体系结构可以与最先进的方法相抗衡。