Multi-paragraph reasoning is indispensable for open-domain question answering (OpenQA), which receives less attention in the current OpenQA systems. In this work, we propose a knowledge-enhanced graph neural network (KGNN), which performs reasoning over multiple paragraphs with entities. To explicitly capture the entities' relatedness, KGNN utilizes relational facts in knowledge graph to build the entity graph. The experimental results show that KGNN outperforms in both distractor and full wiki settings than baselines methods on HotpotQA dataset. And our further analysis illustrates KGNN is effective and robust with more retrieved paragraphs.


翻译:多段落推理对于开放式回答问题( OpenQA) 来说必不可少,因为当前 OpenQA 系统中的开放式回答( OpenQA) 得到的关注较少。 在这项工作中,我们建议建立一个知识强化的图形神经网络( KGNN), 与实体一起对多个段落进行推理。 为了明确捕捉实体的关联性, KGNN 使用知识图形中的关联性事实来构建实体图形。 实验结果显示, KGNN 在分散和完整的维基设置方面都优于HotpotQA 数据集的基线方法。 我们的进一步分析显示, KGNN 是有效和强大的, 其检索的段落更多 。

17
下载
关闭预览

相关内容

【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
论文浅尝 |「知识表示学习」专题论文推荐
开放知识图谱
13+阅读 · 2018年2月12日
「知识表示学习」专题论文推荐 | 每周论文清单
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
8+阅读 · 2019年5月20日
Arxiv
12+阅读 · 2018年9月15日
VIP会员
相关VIP内容
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Top
微信扫码咨询专知VIP会员