NeurIPS 2021 | 北邮GAMMA Lab:基于置信度校正的可信图神经网络

2021 年 10 月 2 日 PaperWeekly


题目: 基于置信度校正的可信图神经网络

会议: NeurIPS 2021
论文地址:https://arxiv.org/abs/2109.14285
图神经网络 (GNN) 卓越的性能已经广受关注,但其预测结果是否值得信赖却有待探索。之前的研究结果表明,许多现代神经网络对其预测具有过度自信的现象。然而与之不同的是,我们发现GNN对其预测结果却呈现出欠自信的现象。因此,要想获得一个可信的GNN,亟需对其置信度进行校正。
在本文中,我们设计了一种拓扑感知的后处理校正函数,并由此提出了一种新颖的可信赖 GNN 模型。 具体来说,我们首先验证了图中的置信度分布具有同质性的特点,由此启发我们再次利用GNN模型来为分类GNN模型学习校正函数(CaGCN)的想法。CaGCN 能够为每个节点学习到一种从分类 GNN 的输出到校正后的置信度的唯一转换,同时这种转换还能够保留类间的序关系,从而满足保存精度的属性。
此外,我们还将CaGCN应用于自训练框架,结果表明可以通过对置信度进行校正获得更可信的伪标签,从而并进一步提高性能。我们通过大量实验证明了我们提出的模型在置信度校正方面和在提高分类准确率方面的有效性。
总结(2-1-1):
  • 2种现象:GNN的预测结果具有欠自信现象;好的置信度分布具有同质性现象;

  • 1个模型:CaGCN

  • 1类应用:置信度调整后的GNN可以有效应用于自训练框架



引言
图数据在现实世界中是无处不在的,而图神经网络(GNNs)已经在多种图(graph)数据相关的任务中拥有了卓越的性能。然而在许多现实世界的应用中,高预测准确率并不是我们唯一的追求。例如在许多安全相关的应用中,更渴望获得一个可信的模型。这里的可信指得是模型对预测的置信度可以真实地反映出模型预测的准确率。如果这两者相等,我们称其是校正的,这代表模型是可信的。
事实上,深度学习中模型的校正能力早已经在如计算机视觉、自然语言处理等多个领域内被探索过,其结论是现代神经网络大多数是没有被校正的,并且对其预测是过于自信的。然而,还并没有人探究过图领域中模型的校正能力。所以,现有的图神经网络模型的校正能力到底如何呢,模型是否也对其预测过于自信呢?
带着这个问题,我们对节点分类任务中模型的校正能力进行了实验探究。实验结果如图1所示,其中横坐标代表模型(GCN或者GAT)预测的置信度,取值范围为[0,1],我们将其划分为20等份,纵坐标代表相应置信度区间的平均分类准确率。
一般来说,如果模型已经被完美的校正,其置信度应该近似等于该区间的平均分类准确率,换句话说,图1中的蓝色柱(实际输出)应与红色柱(期望输出)对齐。但是我们发现,实际上在大部分情况下,蓝色柱高于红色柱,这说明模型的分类准确率高于其置信度,模型对其预测是不自信的。这与其他领域中的结论正好相反。

图1. GCN和GAT在Cora、Citeseer、Pubmed、CoraFull数据集上的可靠性直方图

此外,我们可视化了节点的置信度分布,如图2所示,其中横坐标代表置信度,纵坐标代表对该置信度下节点数量的密度估计。从图2中我们可以明显观察到,许多预测正确(蓝色)节点的置信度分布在低置信度区间中。这可以部分解释我们上面结论,即图模型是不自信的。

图2 GCN和GAT在Cora、Citeseer、Pubmed、CoraFull数据集上的置信度分布
接下来,我们将提出图领域中置信度的校正方法——CaGCN。


方法

给定一个graph 的邻接矩阵 和其特征矩阵 ,对于一个 层GCN来说,其输出 可以通过如下方法得到:
其中 代表GCN的第 层的权重, 代表激活函数。接下来我们设计的置信度校正函数应该满足如下三个属性:1)考虑网络拓扑;2)是一个非线性函数;3)能保存分类GCN的分类精度。


基于GCN设计的校正函数

我们假设在一个graph中,节点置信度的ground-truth分布应该满足同配(homophily)属性。我们首先设计实验验证了这一点,即利用一个经典的校正函数 tenperature scaling (TS) 对分类模型GCN的每个节点的置信度进行校正,然后计算这些节点置信度的总变差,结果如图3所示。显然,相比于没有校正(Uncal.)的情况,校正后的置信度的总变差有了明显的下降,这证明了我们假设的正确性。考虑到GCN天然可应用于高同配性图,具有平滑邻居节点信号的能力,我们利用另一个GCN作为我们的校正函数,我们称其为CaGCN。

图3. graph中置信度的同配性验证实验
具体来说,CaGCN以分类GCN的输出 作为输入,输出校正后的每一个节点 的置信度 ,如下所示:
其中 是softmax算子。可以看到,CaGCN能够学习到一种非线性变换,并且将网络拓扑考虑在内。但是,我们也可以注意到,由于CaGCN是一种非线性变换,对任意节点 ,它并不能保证 的类间序关系是一致的。换句话说,它并不能保持分类GCN的分类精度。针对这一点,接下来我们将对CaGCN进行改进。

精度保存的属性

首先,我们对一般的精度保存的校正函数进行了研究,提出了如下理论:

理论一:对于一个校正函数 ,一维函数 以及节点 的输出 ,如果 是一个严格保序函数并满足
是可以保存分类模型的精度。
Temperature scaling(TS)就是一个最简单的精度保存的校正函数,它用一个标量 对所有节点 的输出 的所有维度做相同的变换: ,这里的 就是一个严格保序函数。因此我们可以借助TS的思想,对前面提出的CaGCN进行改进。具体来说,给定分类模型的输出 ,我们首先用CaGCN为每个节点 学到一个 ,然后再进行TS变换。用公式可形式化的表示为:
相比于公式(2)中未改进的CaGCN,公式(4)的CaGCN可以保存分类模型GCN的精度;相比于TS方法,其为每个节点学习到了一种非线性变换,同时在校正过程中将网络拓扑考虑在内。需要注意的是,相比于公式(2)中的模型,公式(4)施加了很强的约束,它迫使 中所有的维度只能进行相同的变换,但是接下来我们将证明他们在置信度校正方面的相等性。事实上,我们只要证明公式(4)可以输出 中的任意一个置信度值即可,如下:
理论二:给定分类模型对任意节点 的输出 ,假定对于 的所有元素 均不趋于无穷,则通过公式(4)得到的校正后的置信度 可以取遍区间
到此,我们提出的CaGCN已经可以满足需要的全部属性,即(1)考虑网络拓扑 (2)是一个非线性函数 (3)能保存分类GCN的分类精度。接下来我们将讲述CaGCN的目标函数。

优化目标

前人已经证明了优化NLL loss(交叉熵loss)便可以对置信度校正进行优化,因此我们也将NLL loss作为损失函数:

此外,由于NLL loss并不能直接减小错误预测的置信度,我们提出了一个正则化项:
其中, 分别指正确和错误预测的数量, 指预测概率向量的最大值和次大值。最终,目标函数为:
其中, 为超参数。
CaGCN整体的框架如图4所示,其中实线代表可以进行反向梯度传播的运算。我们首先利用训练集训练好一个分类GCN从而得到所有节点的输出 ,接下来以 作为CaGCN的输入,利用验证集训练CaGCN。具体来说,首先将 输入到CaGCN中得到每个节点 ,然后对 进行temperature scaling变换得到 ,即对于节点 ,最后对 做softmax变换并根据公式(5,6,7)得到目标函数,优化该目标函数从而更新CaGCN。
图4. CaGCN的整体框架


基于置信度校正的自训练方法

这里我们额外提出一个置信度校正的实际应用,即将其用于改进GCNs中自训练方法。自训练指的是为无标签节点预测伪标签,然后选择部分高置信度节点连同伪标签加入到训练集,从而扩充训练集,改进模型性能的方法。由于GCNs普遍是不自信的,因此我们首先对GCN输出的置信度进行校正,然后再利用校正后的置信度选择无标签节点,从而更好利用正确的低置信的预测。我们将该方法称之为CaGCN-st。


实验

实验分为两部分,分别评估CaGCN在置信度校正方面的性能和CaGCN-st在提高模型分类准确率方面的性能,其中前者的评估指标是ECE,后者是Accuracy。两个实验均选择了Cora、Citeseer、Pubmed、CoraFull四个数据集,每个数据集选取了不同的标签率。实验结果如下:
图5. CaGCN与其他置信度校正方法的结果对比(值越小代表性能越好)
图6. CaGCN-st与其他自训练方法的结果对比(值越大代表性能越好)
另外,我们还进行了CaGCN-st的消融实验,验证增加的置信度校正方法的有效性,结果如图7所示,其中GCN-st指没有置信度校正的普通自训练方法。
图7. 自训练消融实验
更多细节以及实验结果请参见原论文。

特别鸣谢

感谢 TCCI 天桥脑科学研究院对于 PaperWeekly 的支持。TCCI 关注大脑探知、大脑功能和大脑健康。


更多阅读




#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编




🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·

登录查看更多
0

相关内容

AAAI 2022|对抗攻击鲁棒的异质图神经网络
专知会员服务
35+阅读 · 2022年3月28日
WWW2022 | 迷途知返:分布迁移下的图神经网络自训练方法
专知会员服务
16+阅读 · 2022年2月19日
【NeurIPS 2021】 基于置信度校正的可信图神经网络
专知会员服务
20+阅读 · 2021年12月26日
专知会员服务
19+阅读 · 2021年10月3日
[WWW2021]图结构估计神经网络
专知会员服务
42+阅读 · 2021年3月29日
【AAAI2021-斯坦福】身份感知的图神经网络
专知会员服务
37+阅读 · 2021年1月27日
专知会员服务
27+阅读 · 2020年12月15日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
18+阅读 · 2020年11月6日
近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
专知会员服务
44+阅读 · 2020年10月5日
NeurIPS 2021 | 一文洞悉因果机器学习前沿进展
微软研究院AI头条
0+阅读 · 2021年12月2日
图神经网络火了?谈下它的普适性与局限性
机器之心
21+阅读 · 2019年7月29日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
A Sheaf-Theoretic Construction of Shape Space
Arxiv
0+阅读 · 2022年4月19日
Arxiv
0+阅读 · 2022年4月19日
Dynamic Network Adaptation at Inference
Arxiv
0+阅读 · 2022年4月18日
Arxiv
38+阅读 · 2020年3月10日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
相关VIP内容
AAAI 2022|对抗攻击鲁棒的异质图神经网络
专知会员服务
35+阅读 · 2022年3月28日
WWW2022 | 迷途知返:分布迁移下的图神经网络自训练方法
专知会员服务
16+阅读 · 2022年2月19日
【NeurIPS 2021】 基于置信度校正的可信图神经网络
专知会员服务
20+阅读 · 2021年12月26日
专知会员服务
19+阅读 · 2021年10月3日
[WWW2021]图结构估计神经网络
专知会员服务
42+阅读 · 2021年3月29日
【AAAI2021-斯坦福】身份感知的图神经网络
专知会员服务
37+阅读 · 2021年1月27日
专知会员服务
27+阅读 · 2020年12月15日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
18+阅读 · 2020年11月6日
近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
专知会员服务
44+阅读 · 2020年10月5日
相关基金
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员