图卷积网络(GCNs)在图的半监督学习任务中表现出了良好的效果,与其他方法相比具有优势。虽然GCNs取得了显著的成就,但在训练GCNs的过程中,却存在着监督不足的问题。当标记数据有限时,对于低度节点,GCNs的性能不能令人满意。虽然之前的一些工作在整个模型层上分析了GCNs的成功和失败,但是在单个节点层上对GCNs的概要分析仍然是不够的。
本文从节点度分布的角度对GCNs进行了分析。从经验观察到理论证明,我们证实了GCNs对节点有较大的倾向性和较高的准确率,即使高节点在大多数图中没有得到充分的表示。我们进一步开发了一种新的自监督学习的特定学位GCN (SL-DSGCN),它从模型和数据方面减轻了GCNs与学位相关的偏差。首先,我们提出了一个基于度的GCN层,该层捕获了不同程度节点之间的差异和相似性,从而减少了由于与所有节点共享相同的参数而导致的GCNs内部模型方面的偏差。其次,我们设计了一个自监督学习算法,利用贝叶斯神经网络在未标记节点上创建带有不确定性分数的伪标签。伪标签增加了低节点连接到有标签邻居的机会,从而从数据角度减少了GCNs的偏倚。在随机梯度下降算法中,进一步利用不确定性分数动态地为伪标签赋权。在三个基准数据集上的实验表明,SL-DSGCN不仅优于最先进的自训练/自监督学习GCN方法,而且显著提高了低度节点的GCN精度。
https://uploads.strikinglycdn.com/files/e8ec5901-39c0-4a17-9010-63b11c2ff2a4/SL-DSGCN_CIKM2020.pdf