图神经网络(GNN)已经在广泛的应用领域取得了良好的效果。大多数对GNN的实证研究都直接将观察到的图作为输入,假设观察到的结构完美地描述了节点之间准确完整的关系。然而,现实世界中的图不可避免地是嘈杂的或不完整的,这甚至会恶化图表示的质量。本文从信息论的角度提出了一种新的变分信息瓶颈引导的图结构学习框架VIB-GSL。VIB-GSL提出了图结构学习的信息瓶颈(Information Bottleneck, IB)原则,为挖掘底层任务相关关系提供了一个更优雅和通用的框架。VIB-GSL学习了一种信息丰富的压缩图结构,为特定的下游任务提取可操作的信息。VIB-GSL对不规则图数据进行变分逼近,形成易处理的IB目标函数,有利于训练的稳定性。大量的实验结果表明,VIB-GSL具有良好的有效性和鲁棒性。
https://www.zhuanzhi.ai/paper/8f506a32b4b05f9ea8a5d651eb1b27f1