Graph neural networks (GNNs) are composed of layers consisting of graph convolutions and pointwise nonlinearities. Due to their invariance and stability properties, GNNs are provably successful at learning representations from data supported on moderate-scale graphs. However, they are difficult to learn on large-scale graphs. In this paper, we study the problem of training GNNs on graphs of moderate size and transferring them to large-scale graphs. We use graph limits called graphons to define limit objects for graph filters and GNNs -- graphon filters and graphon neural networks (WNNs) -- which we interpret as generative models for graph filters and GNNs. We then show that graphon filters and WNNs can be approximated by graph filters and GNNs sampled from them on weighted and stochastic graphs. Because the error of these approximations can be upper bounded, by a triangle inequality argument we can further bound the error of transferring a graph filter or a GNN across graphs. Our results show that (i) the transference error decreases with the graph size, and (ii) that graph filters have a transferability-discriminability tradeoff that in GNNs is alleviated by the scattering behavior of the nonlinearity. These findings are demonstrated empirically in a movie recommendation problem and in a decentralized control task.
翻译:图形神经网络(GNNS) 由图层相融合和点向非线性图层组成。 由于这些图层的易变性和稳定性特性, GNNs能够成功地从中尺度图中支持的数据中学习演示。 但是, 很难在大尺度图中学习。 在本文中, 我们研究在中尺度图上培训GNS并将其转移到大尺度图中。 我们用被称为图形限制的图形来定义图形过滤器和GNNS(图形过滤器和图形神经网络)的限值。 由于这些图形过滤器和GNNs -- -- 图形过滤器和图形神经网络(WNNNS) -- -- 我们将其解释为图形过滤器和GNNS的基因化模型模型。 然后我们显示, 图形过滤器和网络NNNNWs可以近似于大尺度图。 由于这些近似值的误差可以被高度约束, 我们可以用三角不平等的参数来进一步限制将图形过滤器或GNNNW(图形过滤器和GNNNS神经网络) -- -- -- 递增缩缩缩图中不易性错误是图像分析分析的不易性分析性分析性, 这些分析性分析性分析性分析性分析性分析性中, 这些分析性分析性分析性分析性分析性分析性分析性分析性分析性的建议。这些分析性中,这些分析性分析性是显示性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性,这些分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性分析性,这些分析性,这些分析性分析性分析性分析性分析性分析性分析性分析性分析性。