在这篇论文中,我们提出了用于学习和应用多源知识图谱(KG)嵌入的“联合预训练和局部重训”框架。我们的动机是,不同的KG包含可以改进KG嵌入和下游任务的互补信息。我们在链接的多源KG上预训练一个大型的教师KG嵌入模型,并将知识蒸馏到针对特定任务的KG的学生模型中。为了实现不同KG之间的知识转移,我们使用实体对齐来构建一个连接预训练KG和目标KG的链接子图。这个链接子图被重新训练,进行从教师到学生的三级知识蒸馏,即特征知识蒸馏,网络知识蒸馏和预测知识蒸馏,以生成更有表现力的嵌入。教师模型可以被重复用于不同的目标KG和任务,无需从头开始训练。我们进行了大量的实验来展示我们的框架的有效性和效率。

https://www.zhuanzhi.ai/paper/7c51aae482b4dfe47e2d387915dbcf24

成为VIP会员查看完整内容
29

相关内容

【KDD2023】学习语言表示用于序列推荐
专知会员服务
11+阅读 · 2023年5月27日
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
50+阅读 · 2021年12月20日
专知会员服务
19+阅读 · 2021年9月6日
AAAI2021 | 学习预训练图神经网络
专知会员服务
116+阅读 · 2021年1月28日
KDD2022 | 基于自监督超图Transformer的推荐算法研究
机器学习与推荐算法
2+阅读 · 2022年8月26日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2023年7月31日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
21+阅读 · 2019年3月25日
VIP会员
相关VIP内容
【KDD2023】学习语言表示用于序列推荐
专知会员服务
11+阅读 · 2023年5月27日
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
50+阅读 · 2021年12月20日
专知会员服务
19+阅读 · 2021年9月6日
AAAI2021 | 学习预训练图神经网络
专知会员服务
116+阅读 · 2021年1月28日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
相关论文
Arxiv
0+阅读 · 2023年7月31日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
21+阅读 · 2019年3月25日
微信扫码咨询专知VIP会员