知识图谱(KG)嵌入已经成为不完备知识图谱推理的主流方法,但由于其固有的浅层和静态架构的限制,难以处理日益受到关注的复杂逻辑查询,包括逻辑运算符、imputed边、多源实体和未知中间实体。在这项工作中,我们提出了知识图谱转换器(kgTransformer),它具有掩码的预训练和微调策略。我们设计了一种KG三重变换方法,使Transformer能够处理KGs,并通过混合专家(mix -of- experts, MoE)稀疏激活进一步加强了这种方法。然后,我们将复杂的逻辑查询表述为掩码预测,并引入两阶段掩码训练前策略以提高可移植性和泛化性。在两个基准测试上的大量实验表明,kgTransformer在9个域内和域外推理任务上可以始终优于基于KG嵌入的基准和高级编码器。此外,kgTransformer可以通过提供完整的推理路径来解释给定的答案,从而具有可解释性。

https://keg.cs.tsinghua.edu.cn/jietang/publications/KDD22-Liu-et-al-KG-Transformer.pdf

成为VIP会员查看完整内容
28

相关内容

国际知识发现与数据挖掘大会 (ACM SIGKDD Conference on Knowledge Discovery and Data Mining,简称KDD) 是数据挖掘领域的顶级会议。第28届SIGKDD会议将于8月14日至18日在华盛顿举行。据统计,今年共有1695篇有效投稿,其中254篇论文被接收,接收率为14.98%,Applied Data Science Track录用率为25.90%。
【KDD2022】自监督超图Transformer推荐系统
专知会员服务
33+阅读 · 2022年8月1日
【KDD2022】GraphMAE:自监督掩码图自编码器
专知会员服务
22+阅读 · 2022年6月12日
NeurIPS 2021 | ConE: 针对知识图谱多跳推理的锥嵌入模型
专知会员服务
24+阅读 · 2021年12月5日
专知会员服务
24+阅读 · 2021年8月22日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
43+阅读 · 2021年7月6日
专知会员服务
37+阅读 · 2021年4月25日
【WWW2021】知识图谱逻辑查询的自监督双曲面表示
专知会员服务
28+阅读 · 2021年4月9日
【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
37+阅读 · 2021年4月9日
【KDD2022】自监督超图Transformer推荐系统
专知
1+阅读 · 2022年8月1日
【KDD2022】GraphMAE:自监督掩码图自编码器
专知
7+阅读 · 2022年6月12日
论文浅尝 - ACL2022 | 子图检索增强的知识图谱问答方法
开放知识图谱
0+阅读 · 2022年5月13日
SelfKG: 自监督知识图谱实体对齐 | 论文荐读
学术头条
5+阅读 · 2022年4月8日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
69+阅读 · 2022年6月13日
Arxiv
33+阅读 · 2022年2月15日
Arxiv
35+阅读 · 2021年1月27日
CSKG: The CommonSense Knowledge Graph
Arxiv
18+阅读 · 2020年12月21日
Arxiv
15+阅读 · 2020年2月5日
VIP会员
相关VIP内容
【KDD2022】自监督超图Transformer推荐系统
专知会员服务
33+阅读 · 2022年8月1日
【KDD2022】GraphMAE:自监督掩码图自编码器
专知会员服务
22+阅读 · 2022年6月12日
NeurIPS 2021 | ConE: 针对知识图谱多跳推理的锥嵌入模型
专知会员服务
24+阅读 · 2021年12月5日
专知会员服务
24+阅读 · 2021年8月22日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
43+阅读 · 2021年7月6日
专知会员服务
37+阅读 · 2021年4月25日
【WWW2021】知识图谱逻辑查询的自监督双曲面表示
专知会员服务
28+阅读 · 2021年4月9日
【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
37+阅读 · 2021年4月9日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员