Graph-based learning is a rapidly growing sub-field of machine learning with applications in social networks, citation networks, and bioinformatics. One of the most popular type of models is graph attention networks. These models were introduced to allow a node to aggregate information from the features of neighbor nodes in a non-uniform way in contrast to simple graph convolution which does not distinguish the neighbors of a node. In this paper, we study theoretically this expected behaviour of graph attention networks. We prove multiple results on the performance of the graph attention mechanism for the problem of node classification for a contextual stochastic block model. Here the features of the nodes are obtained from a mixture of Gaussians and the edges from a stochastic block model where the features and the edges are coupled in a natural way. First, we show that in an "easy" regime, where the distance between the means of the Gaussians is large enough, graph attention is able to distinguish inter-class from intra-class edges, and thus it maintains the weights of important edges and significantly reduces the weights of unimportant edges. As a corollary, we show that this implies perfect node classification. However, a classical argument shows that in the "easy" regime, the graph is not needed at all to classify the data with high probability. In the "hard" regime, we show that every attention mechanism fails to distinguish intra-class from inter-class edges. We evaluate our theoretical results on synthetic and real-world data.
翻译:基于图形的学习是一个快速增长的机器学习的子领域,在社交网络、引用网络和生物信息学的应用中应用。最流行的模型类型之一是图形关注网络。这些模型的引入是为了让节点能够以非统一的方式从邻居节点的特征中收集信息,与简单的图形混进系统形成对比,后者并不区分节点的邻居。在本文中,我们从理论上研究石墨关注网络的预期行为。我们证明图形关注机制对于背景随机区块模型的节点分类问题的性能有多重结果。在这里,节点的特征来自高斯人的混合体,而节点的边缘则来自一个随机区块模型的边缘,其特征和边缘以自然的方式相互交织。首先,我们表明,在“容易”的系统中,高点观察器的距离足够大,图形关注能够区分阶级间边缘,从而保持重要边缘的重量,大大降低了非重要边缘的份量。在这里,节点中,节点的特征从高点区块模型模型模型的边缘和边缘边缘的边缘的边缘的边缘, 边端点是自然。我们展示了“最精确的分类的分类 ”的分类的分类, 显示,我们没有精确的层次的层次的分类, 我们的分类的分类, 显示,我们没有显示, 我们的精确的精确的层次的分类, 显示,我们所需要的每个的层次的层次的层次的层次的层次的层次的分类的层次, 显示, 显示,我们的精确性的分类, 显示, 显示, 我们的层次的分类的层次的分类法, 显示, 显示, 我们的精确性的分类法的 显示,我们的 显示, 显示, 显示, 我们的分类的 的 显示, 我们的精确性的 显示, 我们的 的 的 的 的 的 的 的 的 的 的 的 的 的 显示, 我们的 显示, 显示, 我们的 的 的 显示, 的 的 的 显示, 我们的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 显示, 我们的 显示, 的 的 的 的 的 的 的 的