我们知道,目前的图神经网络(GNNs)由于被称为过度平滑的问题,很难变深。多尺度GNN是一种很有前途的方法,以减轻过度平滑问题。然而,很少有人从学习理论的角度解释为什么它在经验上有效。在本研究中,我们推导了包括多尺度GNN的转导学习算法的优化和泛化保证。利用boosting理论,证明了训练误差在弱学习类型条件下的收敛性。通过将其与泛化间隙边界在转导距离复杂度上的结合,我们证明了在此条件下,某一特定类型的多尺度GNN的测试误差边界随深度的减小而相应减小。我们的结果为多尺度结构对抗过平滑问题的有效性提供了理论解释。我们将boosting算法应用于训练多尺度的GNN来完成真实的节点预测任务。我们证实其性能与现有的GNNs相当,实际行为与理论观测一致。代码可在https://github.com/delta2323/GB-GNN下载。
https://www.zhuanzhi.ai/paper/8f08812139e67b767e5b59c2a71e5bdd