常识性知识的来源旨在支持自然语言理解、计算机视觉和知识图的应用程序。这些源包含相互补充的知识,这使得它们的融合成为可能。然而,由于它们不同的关注点、建模方法和稀疏重叠,这样的融合并非微不足道。在本文中,我们建议通过以下五个原则来构建常识知识。我们运用这些原则将7个关键资源组合成第一个综合常识知识图(CSKG)。我们对CSKG及其各种文本和图的嵌入进行分析,表明CSKG是一个连接良好的图谱,它的嵌入提供了一个有用的图的入口点。此外,我们还展示了CSKG作为推理证据检索源的影响,以及作为可推广下游推理的预训练语言模型的影响。将CSKG及其所有嵌入公开,以支持对常识性知识集成和推理的进一步研究。

https://www.zhuanzhi.ai/paper/60f8a6ce3150842ccff87e35b367c4f4

成为VIP会员查看完整内容
31

相关内容

最新《深度学习理论》笔记,68页pdf
专知会员服务
49+阅读 · 2021年2月14日
彭博新书《知识图谱: 一种信息检索视角》,159页pdf
专知会员服务
146+阅读 · 2020年11月1日
最新《知识图谱表示学习补全》综述论文,16页pdf
专知会员服务
65+阅读 · 2020年10月29日
最新《知识图谱:构建到应用》2020大综述论文,261页pdf
专知会员服务
288+阅读 · 2020年10月6日
【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
73+阅读 · 2020年9月25日
专知会员服务
71+阅读 · 2020年9月20日
最新《深度持续学习》综述论文,32页pdf
专知会员服务
179+阅读 · 2020年9月7日
最新《动态网络嵌入》综述论文,25页pdf
专知
34+阅读 · 2020年6月17日
知识图谱最新研究综述
深度学习自然语言处理
45+阅读 · 2020年6月14日
自然语言处理常识推理综述论文,60页pdf
专知
73+阅读 · 2019年4月4日
综述 | 知识图谱发展概述
PaperWeekly
75+阅读 · 2017年11月3日
Pre-Training on Dynamic Graph Neural Networks
Arxiv
0+阅读 · 2021年2月24日
Arxiv
27+阅读 · 2020年6月19日
Arxiv
29+阅读 · 2020年3月16日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
VIP会员
相关VIP内容
最新《深度学习理论》笔记,68页pdf
专知会员服务
49+阅读 · 2021年2月14日
彭博新书《知识图谱: 一种信息检索视角》,159页pdf
专知会员服务
146+阅读 · 2020年11月1日
最新《知识图谱表示学习补全》综述论文,16页pdf
专知会员服务
65+阅读 · 2020年10月29日
最新《知识图谱:构建到应用》2020大综述论文,261页pdf
专知会员服务
288+阅读 · 2020年10月6日
【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
73+阅读 · 2020年9月25日
专知会员服务
71+阅读 · 2020年9月20日
最新《深度持续学习》综述论文,32页pdf
专知会员服务
179+阅读 · 2020年9月7日
相关论文
Pre-Training on Dynamic Graph Neural Networks
Arxiv
0+阅读 · 2021年2月24日
Arxiv
27+阅读 · 2020年6月19日
Arxiv
29+阅读 · 2020年3月16日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
微信扫码咨询专知VIP会员