我们提出了图神经扩散(GRAND),它将图的深度学习视为一个连续的扩散过程,并将图神经网络(GNN)视为一个潜在的PDE的离散化。在我们的模型中,层结构和拓扑对应于时间和空间算子的离散化选择。我们的方法允许有原则地开发一大类新的GNN,这些GNN能够解决图学习模型的常见困境,如深度、过平滑和瓶颈。我们的模型成功的关键是相对于数据摄动的稳定性,这在隐式和显式离散化方案中都得到了解决。我们开发了线性和非线性版本的GRAND,在许多标准图基准上实现了有竞争性的结果。
http://proceedings.mlr.press/v139/chamberlain21a/chamberlain21a.pdf