Most research in reading comprehension has focused on answering questions based on individual documents or even single paragraphs. We introduce a method which integrates and reasons relying on information spread within documents and across multiple documents. We frame it as an inference problem on a graph. Mentions of entities are nodes of this graph where edges encode relations between different mentions (e.g., within- and cross-document co-references). Graph convolutional networks (GCNs) are applied to these graphs and trained to perform multi-step reasoning. Our Entity-GCN method is scalable and compact, and it achieves state-of-the-art results on the WikiHop dataset (Welbl et al. 2017).


翻译:阅读理解方面的多数研究侧重于根据单个文件或甚至单个段落回答问题。我们采用了一种方法,根据在文件内部和多个文件之间传播的信息整合信息并给出理由。我们把它作为图表中的一个推论问题。提到实体是该图的节点,其中显示不同提及(例如,内部和交叉文件共同参考)之间的关系。图集网络(GCN)应用到这些图表中,并经过培训以进行多步推理。我们的实体-GCN方法可以缩放和紧凑,在WikiHop数据集(Welbl等人,2017年)上取得了最新结果。

4
下载
关闭预览

相关内容

【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
178+阅读 · 2020年4月26日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
29+阅读 · 2020年4月15日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
论文浅尝 | Question Answering over Freebase
开放知识图谱
18+阅读 · 2018年1月9日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
12+阅读 · 2018年9月15日
Arxiv
9+阅读 · 2018年2月4日
VIP会员
Top
微信扫码咨询专知VIP会员