With the rapid growth of knowledge bases (KBs), question answering over knowledge base, a.k.a. KBQA has drawn huge attention in recent years. Most of the existing KBQA methods follow so called encoder-compare framework. They map the question and the KB facts to a common embedding space, in which the similarity between the question vector and the fact vectors can be conveniently computed. This, however, inevitably loses original words interaction information. To preserve more original information, we propose an attentive recurrent neural network with similarity matrix based convolutional neural network (AR-SMCNN) model, which is able to capture comprehensive hierarchical information utilizing the advantages of both RNN and CNN. We use RNN to capture semantic-level correlation by its sequential modeling nature, and use an attention mechanism to keep track of the entities and relations simultaneously. Meanwhile, we use a similarity matrix based CNN with two-directions pooling to extract literal-level words interaction matching utilizing CNNs strength of modeling spatial correlation among data. Moreover, we have developed a new heuristic extension method for entity detection, which significantly decreases the effect of noise. Our method has outperformed the state-of-the-arts on SimpleQuestion benchmark in both accuracy and efficiency.


翻译:随着知识基础(KBS)的迅速增长,对知识基础的回答问题,a.k.a.a.a.a.a.k.KBQA在最近几年里引起了巨大的关注。现有的KBQA方法大多采用所谓的编码器-compare框架。它们将问题和KB事实映射到一个共同的嵌入空间,在这个空间中,可以方便地计算问题矢量和事实矢量之间的相似性。然而,这不可避免地会失去原始的词互动信息。为了保存更原始的信息,我们提议建立一个关注的经常性神经网络,以类似矩阵基基基基共的同源神经网络(AR-SMCNN)模型(AR-SMCNN)为主,能够利用RNN和CNN的优势捕捉到全面的等级信息。我们用RNNN和CNN的顺序模型性能,我们用一个关注机制来捕捉语系层面的关联性关系。与此同时,我们使用一个基于两个方向的类似性矩阵,用两个方向汇集来提取精度的词互动。此外,我们还开发了一个新的超音频扩展方法,用以测量实体的精确度。

11
下载
关闭预览

相关内容

FreeBASIC,BASIC语言界的黑马 学习过QuickBASIC的用户就可以上手的BASIC语言, 完全免费开源,能够产生高品质的机械码,跨平台,
FreeBASIC如同他的名字一样,免费而且基於已建立的BASIC语法,
易学易用是他的优点,但是不光是简单而已,功能十分强大。
几乎支援所有QB的原指令,且有许多追加功能
产生快速高品质的机械码,不依靠VM等虚拟机器
完全免费,包含原始码,编译出的程式无授权问题
支援MS-DOS/Win32/Linux多平台,也可以编译GUI程序
拥有众多第三方函式库支援(Allegro/SDL..以及DirectX/Win32API)
Unicode支援,使用中文十分容易
编译EXE/OBJ/LIB/DLL都很容易,以便和其他语言应用
zh.wikipedia.org/wiki/F
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
133+阅读 · 2020年2月13日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
论文浅尝 | 基于RNN与相似矩阵CNN的知识库问答
开放知识图谱
8+阅读 · 2018年5月29日
论文浅尝 | 利用 RNN 和 CNN 构建基于 FreeBase 的问答系统
开放知识图谱
11+阅读 · 2018年4月25日
论文浅尝 | Improved Neural Relation Detection for KBQA
开放知识图谱
13+阅读 · 2018年1月21日
论文浅尝 | Question Answering over Freebase
开放知识图谱
18+阅读 · 2018年1月9日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
揭开知识库问答KB-QA的面纱3·向量建模篇
PaperWeekly
8+阅读 · 2017年8月23日
Arxiv
6+阅读 · 2018年5月22日
VIP会员
相关VIP内容
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
133+阅读 · 2020年2月13日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
论文浅尝 | 基于RNN与相似矩阵CNN的知识库问答
开放知识图谱
8+阅读 · 2018年5月29日
论文浅尝 | 利用 RNN 和 CNN 构建基于 FreeBase 的问答系统
开放知识图谱
11+阅读 · 2018年4月25日
论文浅尝 | Improved Neural Relation Detection for KBQA
开放知识图谱
13+阅读 · 2018年1月21日
论文浅尝 | Question Answering over Freebase
开放知识图谱
18+阅读 · 2018年1月9日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
揭开知识库问答KB-QA的面纱3·向量建模篇
PaperWeekly
8+阅读 · 2017年8月23日
Top
微信扫码咨询专知VIP会员