WSDM2022 | DualDE:基于知识图谱蒸馏的低成本推理

2022 年 1 月 20 日 专知



论文题目:DualDE: Dually Distilling Knowledge Graph Embedding for Faster and Cheaper Reasoning

本文作者:朱渝珊(浙江大学)、张文(浙江大学、陈名(浙江大学、陈辉(阿里巴巴),程旭(北京大学),张伟阿里巴巴,陈华钧(浙江大学

发表会议:WSDM 2022

论文链接:https://www.zhuanzhi.ai/paper/12c6a095c207373b5e207d3375290234

欢迎转载,转载请注明出处


背景

知识图谱(Knowledge Graph)由以表示事实的三元组形式(头实体,关系,尾实体)组成,可简写为(h,r,t)。知识图谱已被证明可用于各种AI任务,如语义搜索,信息提取和问答等。然而众所周知,知识图谱还远非完备,这进而也促进了许多关于知识图谱完备性的研究。其中比较常见且广泛使用的方法是知识图谱嵌入(KGE Knowledge Graph Embedding),如TransE、ComplEx和RotatE等。同时,为了获得更好的性能,通常首选训练具有更高维度的KGE。


图 1


但是模型大小(参数的数量)以及推理时间的成本通常随embedding维度的增加而快速增加,如图1所示:随着embedding维度的增大,性能增益越来越小,而模型大小和推理成本却仍几乎保持线性增长。此外,高维KGE在许多现实场景中是不切实际的,尤其是对于计算资源有限或者是在推理时间有限的应用中,低维的KGE是必不可少的。然而,直接训练一个小尺寸KGE通常表现不佳,我们进一步提出一个新的研究问题:是否有可能从预训练的高维KGE中获得低维KGE,在更快成本更低的情况下取得良好的效果。

知识蒸馏是一种广泛使用的技术,用于从大模型(教师模型)中学习知识以构建较小的模型(学生模型)。学生从真实标签和老师模型中的软标签这二者中学习。在本项工作中,我们提出了一种名为DualDE的新型KGE蒸馏方法,该方法能够将高维KGE蒸馏提取出较小的嵌入尺寸,而精度损失很小或没有损失。在DualDE中,我们考虑了老师和学生之间的双重影响:(1)教师对学生的影响(2)学生对教师的影响。

在老师对学生的影响方面,众所周知,老师模型输出的软标签会对学生产生影响。虽然在之前的许多蒸馏工作中,所有样本都具有相同的硬标签和软标签权重,但它们并没有从老师模型那里区分不同样本的软标签的质量的能力。事实上,KGE方法对不同三元组的掌握程度是不同的。对于一些难以被KGE方法掌握三元组,他们通常难以获得可靠的分数。让学生按照不可靠的分数模仿老师,会给学生模型带来负面影响。为了获得更好的蒸馏效果,我们建议学生应该能够评估老师提供的软标签的质量并且有选择地向他们学习,而非一视同仁地学习。我们在DualDE中引入了软标签评估机制来评估老师提供地软标签质量,并自适应地为不同地三元组分配不同的软标签和硬标签权重,这将保留高质量软标签的积极作用并避免低质量软标签的负面影响。

在学生对老师的影响方面,以前的工作研究得并不充分。已有工作证明了蒸馏的整体表现还取决于学生对老师得接受程度。我们希望根据学生目前的学习情况不断调整老师,让老师更能被学生接受,提高最终的提炼效果。因此,我们在DualDE中提出了一种两阶段的蒸馏方法,通过根据学生的输出调整教师来提高学生对教师的接受度。其基本思想是,尽管预训练的老师已经很强了,但对于现在的学生来说,可能不是最适合的。还有相关工作指出,与学生具有相似输出分布的教师更有利于学生的学习。因此,除了教师始终保持静止的标准蒸馏阶段外,我们还设计了第二阶段蒸馏,其中教师解冻并尝试反向向学生学习,以使其更容易被学生接受。

我们使用几个典型的KGE方法和标准KG数据集评估DualDE。结果证明了我们方法的有效性。本文的贡献有三方面:

  1. 我们提出了一种新颖的框架,能从高维KGE中提取低维KGE,并取得良好的性能。
  2. 我们在蒸馏过程中考虑了教师和学生之间的双重影响,并提出了软标签评估机制来区分不同三元组的软标签的质量和两阶段蒸馏以提高学生对老师的适应性。
  3. 我们通过实验证明,我们的方案可以在很少的性能损失基础上,将高维KGE的嵌入参数减少7-15 倍,并将推理速度提高约 2-6 倍。


方法

模型整体框架如图2所示


图 2


 蒸馏目标 

准备一个预训练好的高维KGE模型(教师),并随机初始化一个低维KGE模型(学生)。在 DualDE中,训练学生模型的硬标签损失是KGE方法的原始损失,通常是二元交叉熵损失。此外,我们让学生从目标三元组的整体可信度和嵌入结构这两个方面模仿教师。首先,对一个三元组(h, r, t),教师和学生模型可以通过评分函数为其分配一个分数。(1)学生模仿教师对三元组的整体可信度可以通过拟合两个模型输出的三元组分数完成;(2)学生模仿教师的嵌入结构可以通过拟合两个模型中三元组头实体embedding和尾实体embedding的长度比和角度来反映。最后我们将教师和学生的三元组分数差异和嵌入结构差异之和作为软标签优化目标。

 软标签评估机制 

软标签评估机制可评估教师提供的软标签的质量,并自适应地为不同的三元组分配不同的软标签和硬标签权重,从而保留高质量软标签的积极作用,避免低质量软标签的负面影响。

理论上,KGE模型会给正三元组更高的分数,给负三元组更低的分数,但对于一些KGE模型难以掌握的三元组则相反。具体来说,如果教师给一个负(正)三元组打高(低)分,这意味着教师倾向于将其判断为正(负)三元组,那么教师输出的这个三元组的软标签是不可靠的,甚至会误导学生。对于这个三元组,我们需要削弱软标签的权重,鼓励学生更多地从硬标签中学习。


 两阶段蒸馏方法 

上一部分介绍了如何让学生从 KGE 教师那里提取知识,其中学生用硬标签训练,软标签由固定教师生成。为了获得更好的学生,我们提出了一种两阶段蒸馏方法,通过解冻教师并让其在蒸馏的第二阶段向学生学习来提高学生对教师的接受度。(1)第一阶段。第一阶段类似于传统的知识蒸馏方法,其中教师在培训学生时保持不变;(2)第二阶段。在第二阶段调整教师的同时,对于那些学生没有掌握好的三元组,我们也希望减少学生的输出对教师的负面影响,让教师更多从硬标签中学习,从而以保持教师的高准确性。因此,我们也将软标签评估机制应用于教师的调整。通过评估学生给每个三元组的分数,教师的硬标签和软标签的权重被自适应分配。在此阶段,教师和学生一起优化。


实验结果

DualDE在常用地数据集WN18RR和FB15K237上进行了实验,与几个当前先进的蒸馏方法相比,DualDE体现了优越的性能。下面是部分实验结果。
(1)DualDE 提取的低维 KGE 比直接训练的相同大小的 KGE 性能好得多,仅比原始高维 KGE 差一点或相同性能;


(2)DualDE 提取的低维 KGEs 推理速度明显快于原始高维 KGEs;


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“DUDE” 就可以获取WSDM2022 | DualDE:基于知识图谱蒸馏的低成本推理》专知下载链接


专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取70000+AI主题干货知识资料!


欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取70000+AI主题知识资源
登录查看更多
2

相关内容

软标签,在AI领域中,多指采用以概率为基础的标签编码,多用于标签平滑,可以一定程度抑制过拟合,与之相反的是硬标签。
ACL2022 | 基于强化学习的实体对齐
专知会员服务
34+阅读 · 2022年3月15日
WSDM 2022 | 基于图神经网络的协同过滤设计空间研究
专知会员服务
36+阅读 · 2022年1月3日
专知会员服务
27+阅读 · 2021年6月18日
【WSDM2021】多交互注意力网络细粒度特征学习的CTR预测
专知会员服务
24+阅读 · 2020年12月27日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
论文浅尝 | MulDE:面向低维知识图嵌入的多教师知识蒸馏
ACL2020 | 基于Knowledge Embedding的多跳知识图谱问答
AI科技评论
18+阅读 · 2020年6月29日
【NeurIPS2019】图变换网络:Graph Transformer Network
论文浅尝 | Open world Knowledge Graph Completion
开放知识图谱
19+阅读 · 2018年1月30日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
CSKG: The CommonSense Knowledge Graph
Arxiv
18+阅读 · 2020年12月21日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
14+阅读 · 2019年11月26日
Efficiently Embedding Dynamic Knowledge Graphs
Arxiv
14+阅读 · 2019年10月15日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Arxiv
30+阅读 · 2019年3月13日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
相关论文
CSKG: The CommonSense Knowledge Graph
Arxiv
18+阅读 · 2020年12月21日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
14+阅读 · 2019年11月26日
Efficiently Embedding Dynamic Knowledge Graphs
Arxiv
14+阅读 · 2019年10月15日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Arxiv
30+阅读 · 2019年3月13日
Top
微信扫码咨询专知VIP会员