ICLR 2022 | 图与主动学习:软标签情况下如何设计图上主动学习策略?

2022 年 5 月 22 日 PaperWeekly


©作者 | PKU-DAIR

来源 | PKUDAIR


ICLR (International Conference on Learning Representation) 国际表征学习大会是公认的深度学习领域国际顶级会议之一,关注有关深度学习各个方面的前沿研究,在人工智能、统计和数据科学领域以及机器视觉、语音识别、文本理解等重要应用领域中发布了众多极其有影响力的论文。

PKU-DAIR 实验室研究成果《Information Gain Propagation: A New Way To Graph Active Learning With Soft Labels》已被 ICLR 2022 录用并对外发布。论文提出,图神经网络在图上的各种任务都十分有效,但它的性能高度依赖于大量的有标签节点,而打标签通常需要大量的人力。因此有研究提出了基于图神经网络的主动学习方法,通过选择最有价值的节点进行标记来提高标记效率。现有方法假设预言机(oracle,标签的提供者)可以正确分类所有选定的节点,因此只关注节点选择。然而,这种精确的标记任务成本很高,尤其是当分类数量巨大、超出个人专家的领域时。
该论文提出了 图神经网络上主动学习的软标签方法 ,有两个关键创新点:(1)领域专家只判断预测标签的正确性(二元问题)而不是识别确切的类别(多类问题)的轻松查询;(2)提出了轻松查询下软标签主动学习的信息增益传播衡量标准。此外,对公共数据集的实证研究表明,该论文方法的在准确性和标记成本方面明显优于最先进的基于图神经网络的主动学习方法。



论文标题:

Information Gain Propagation: A New Way To Graph Active Learning With Soft Labels

收录会议:

ICLR 2022

论文链接:
https://openreview.net/forum?id=USC0-nvGPK
代码链接:
https://github.com/PKU-DAIR/IGP




问题背景


传统的主动学习策略往往假定负责提供标签的一方具备完全的知识,但是在一些专业领域中,专家作为标签的提供者,往往只熟悉自己专精的领域,能判断需要标签的样本是否属于自己的专业,却无法指出如果不属于自身专业则应该属于其他哪个专业,换句话说,提供标签的专家只能回答“Yes or No”而不是“Which Class”。

举个具体的例子就是,在 arxiv 的论文分类中,金融的细分分类有计算金融、数学金融等,那么计算金融的专家只能知道某篇论文是否属于计算金融,但判定不出它具体的分类。这时,专家给出的标签就只能是软标签而不是传统的 one-hot 硬标签。如何设计在软标签下的图主动学习策略是该论文要解决的问题。


▲ 图1. 硬标签和软标签以及对应oracle的区别




相关工作

2.1 图神经网络(GNN)

与训练数据独立同分布的图像、文本或表格数据不同,图数据样本通过图中的边连接而互相影响。所以图神经网络通过聚合邻居的节点嵌入或特征以增强它们沿边的嵌入,以利用图数据特定的结构信息。图神经网络有许多变种,比如 GCN [1]、MVGRL [2] 等。

2.2 主动学习(AL)

主动学习通过更好的样本点选择来提高模型的效果和效率。常见的主动学习方法有如下几种:不确定性抽样方法通过考虑信息量选择模型预测最不确定的节点;Query-by-Committee [3] 方法训练一个模型委员会,并根据模型不同意的程度选择样本;基于密度、聚类和多样性的方法选取选择最具代表性的样本。此外,针对多标签分类问题和类不平衡问题也有相应的方法。



IGP方法


IGP 是第一个基于图的考虑了轻松查询和软标签的主动学习框架,可以在任何图神经网络模型上运行。该方法首先测量了选择单个节点的信息增益,然后通过估计图传播的影响大小并将其与信息增益相结合,将单个节点的信息增益扩展到全图,最后选择可以最大化信息增益传播的节点。整个框架的图示如下:

▲ 图2. IGP框架

3.1 信息增益

与之前的标注方式要求 oracle 直接提供标注不同,IGP 中的 oracle 只需要判断模型的预测是否正确即可。而正确和不正确的预测都将提供信息增益使节点标签的不确定性会降低,从而增强标签监督,如果丢弃不正确的预测,就会损失这一部分的信息。我们通过交叉熵来计算每一种可能的信息增益并将它们作加权平均。


▲  图3. 信息增益公式
3.2 传播影响力估计

每个新标注的节点都会将其标签信息传播给 k 层图神经网络中的 k 跳邻居,并相应地影响这些节点的标签分布。由于节点对其不同邻居的影响可能是多种多样的,我们通过计算节点 i 的输入标签的变化对 k 步传播后节点 j 的传播标签的影响来衡量它,公式如下图:


▲  图4. 影响力公式
3.3 全图信息增益

对于 k 层 GNN,一个节点的监督信号可以传播到其 k 跳邻域节点,然后影响这些邻域的标签分布。因此,在节点选择过程中只考虑节点自身的信息增益是不合适的。于是我们扩展了图 3 中定义的单个节点的信息增益到图中它的 k-hop 邻居,具体公式如下:


▲  图5. 全图信息增益公式
3.4 最大化全图信息增益

在确定了每个点对于全图的信息增益后,我们在每一批选点中,都优先挑选信息增益最大的点来给 oracle 打标签,并将得到的软标签交给模型进行下一步的训练迭代,直至用完所有的打标签预算。具体优化目标的公式如下:


▲ 图6. 选点目标公式



实验


4.1 数据集与baseline

数据集使用了 3 个论文引用数据集:Cora、Citseer 和 PubMed。一个社区数据集 Reddit。一个 OGB 公开数据集 ogbn-arxiv,具体细节信息如表格所示。而对比的 baseline 里我们选择了 GRAIN [4] 和 ALG [5] 等最新的在图上做主动学习的方法。

▲ 表1. 数据集详细信息

4.2 端到端实验结果

我们将选点的预算设置为节点类目数量的二十倍,所得的结果如下,可以看出 IGP 显著优于其他方法。

▲ 表2. 端到端实验结果

4.3 选点预算实验结果

我们测试了所有方法随着选点预算增加时的准确率,结果如图,证明 IGP 方法在任何选点预算下都优于其他方法。

▲ 图7. 选点预算实验结果

4.4 可解释性实验

我们将有标签的点可视化投影至二维平面中,并用不同颜色分开标注了硬标签和软标签,从图中可以看出,相比于其他方法,IGP 所获得的硬标签和软标签都够多,这解释了 IGP 的有效性。

▲ 图8. 可解释性实验结果



总结

该论文提出了 IGP 方法,这是第一个考虑软标签情况下基于图神经网络的主动学习方法,具体来说,IGP 结合领域专家和图神经网络模型,在有限预算的情况下详尽地标记节点。IGP 允许使用轻松的查询,即领域专家(oracle)只判断预测标签的正确性而不是准确的分类,并且通过最大化信息增益传播来进行选点。对与真实世界数据集的实证研究表明,IGP 方法在很大程度上优于其他方法,尤其是在类数量很大的专家领域情况下。


参考文献

[1] Thomas N. Kipf and Max Welling. Semi-supervised classification with graph convolutional networks. In 5th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Conference Track Proceedings, 2017b.

[2] Kaveh Hassani and Amir Hosein Khasahmadi. Contrastive multi-view representation learning on graphs. In International Conference on Machine Learning, pp. 4116–4126. PMLR, 2020.

[3] Robert Burbidge, Jem J Rowland, and Ross D King. Active learning for regression based on query by committee. In International conference on intelligent data engineering and automated learning, pp. 209–218. Springer, 2007.

[4] Wentao Zhang, Zhi Yang, Yexin Wang, Yu Shen, Yang Li, Liang Wang, and Bin Cui. Grain: Improving data efficiency of graph neural networks via diversified influence maximization. Proc. VLDB Endow., 14(11):2473–2482, 2021b.

[5] Wentao Zhang, Yu Shen, Yang Li, Lei Chen, Zhi Yang, and Bin Cui. ALG: fast and accurate active learning framework for graph convolutional networks. In SIGMOD ’21: International Conference on Management of Data, Virtual Event, China, June 20-25, 2021, pp. 2366–2374, 2021a.


更多阅读




#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编




🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧




登录查看更多
3

相关内容

【NeurIPS 2021】实例依赖的偏标记学习
专知会员服务
10+阅读 · 2021年11月28日
ICLR 2022 评审出炉!来看看得分最高8份的31篇论文是什么!
【经典书】主动学习理论,226页pdf,Theory of Active Learning
专知会员服务
125+阅读 · 2021年7月14日
ICLR 2021 评审出炉!来看看得分最高的50篇论文是什么!
专知会员服务
40+阅读 · 2020年11月13日
专知会员服务
146+阅读 · 2020年6月15日
主动学习(Active Learning),看这一篇就够了
专知
6+阅读 · 2022年4月29日
主动学习(Active Learning)概述及最新研究
PaperWeekly
2+阅读 · 2022年1月6日
KDD'21 | 如何评估GNN的解释性模型?
图与推荐
1+阅读 · 2021年9月30日
浅谈主动学习(Active Learning)
凡人机器学习
31+阅读 · 2020年6月18日
【领域报告】主动学习年度进展|VALSE2018
深度学习大讲堂
15+阅读 · 2018年6月12日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
66+阅读 · 2022年4月13日
Arxiv
23+阅读 · 2022年2月24日
Arxiv
57+阅读 · 2022年1月5日
Arxiv
10+阅读 · 2021年11月10日
Arxiv
13+阅读 · 2021年7月20日
Arxiv
12+阅读 · 2019年3月14日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
VIP会员
相关VIP内容
相关资讯
主动学习(Active Learning),看这一篇就够了
专知
6+阅读 · 2022年4月29日
主动学习(Active Learning)概述及最新研究
PaperWeekly
2+阅读 · 2022年1月6日
KDD'21 | 如何评估GNN的解释性模型?
图与推荐
1+阅读 · 2021年9月30日
浅谈主动学习(Active Learning)
凡人机器学习
31+阅读 · 2020年6月18日
【领域报告】主动学习年度进展|VALSE2018
深度学习大讲堂
15+阅读 · 2018年6月12日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
相关论文
Arxiv
66+阅读 · 2022年4月13日
Arxiv
23+阅读 · 2022年2月24日
Arxiv
57+阅读 · 2022年1月5日
Arxiv
10+阅读 · 2021年11月10日
Arxiv
13+阅读 · 2021年7月20日
Arxiv
12+阅读 · 2019年3月14日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Top
微信扫码咨询专知VIP会员