Link prediction based on knowledge graph embeddings (KGE) aims to predict new triples to automatically construct knowledge graphs (KGs). However, recent KGE models achieve performance improvements by excessively increasing the embedding dimensions, which may cause enormous training costs and require more storage space. In this paper, instead of training high-dimensional models, we propose MulDE, a novel knowledge distillation framework, which includes multiple low-dimensional hyperbolic KGE models as teachers and two student components, namely Junior and Senior. Under a novel iterative distillation strategy, the Junior component, a low-dimensional KGE model, asks teachers actively based on its preliminary prediction results, and the Senior component integrates teachers' knowledge adaptively to train the Junior component based on two mechanisms: relation-specific scaling and contrast attention. The experimental results show that MulDE can effectively improve the performance and training speed of low-dimensional KGE models. The distilled 32-dimensional model is competitive compared to the state-of-the-art high-dimensional methods on several widely-used datasets.


翻译:基于知识图嵌入(KGE)的链接预测旨在预测自动构建知识图(KGs)的新三重数据。然而,最近的KGE模型通过过度增加嵌入维度而实现了绩效改进,这可能造成巨大的培训成本和更多的存储空间。在本文中,我们提议了“MulDE”,而不是培训高维模型,这是一个新的知识蒸馏框架,其中包括作为教师的多种低维双曲线KGE模型和两个学生组成部分,即初级和高级。在一个新颖的迭代蒸馏战略下,初级部分,一个低维KGE模型,请教师积极以初步预测结果为基础,以及高级部分将教师的知识适应性地结合到基于两个机制的培训初级部分:特定关系的规模和对比关注。实验结果表明,MulDE能够有效地提高低维KGE模型的性能和培训速度。在几个广泛使用的数据集中,蒸馏的32维模型与最新高维方法相比具有竞争力。

1
下载
关闭预览

相关内容

图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
ACL2020 | 基于Knowledge Embedding的多跳知识图谱问答
AI科技评论
18+阅读 · 2020年6月29日
图表示学习Graph Embedding综述
AINLP
33+阅读 · 2020年5月17日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
论文浅尝 | Open world Knowledge Graph Completion
开放知识图谱
19+阅读 · 2018年1月30日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Arxiv
4+阅读 · 2019年2月8日
Arxiv
7+阅读 · 2018年8月28日
Arxiv
7+阅读 · 2018年3月21日
VIP会员
相关VIP内容
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
相关资讯
ACL2020 | 基于Knowledge Embedding的多跳知识图谱问答
AI科技评论
18+阅读 · 2020年6月29日
图表示学习Graph Embedding综述
AINLP
33+阅读 · 2020年5月17日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
论文浅尝 | Open world Knowledge Graph Completion
开放知识图谱
19+阅读 · 2018年1月30日
Top
微信扫码咨询专知VIP会员