【ACL2020】使用问题图生成解决multi-hop复杂KBQA

2020 年 9 月 26 日 深度学习自然语言处理
点击上方,选择星标置顶,每天给你送干货
阅读大概需要10分钟
跟随小博主,每天进步一丢丢


每日英文
Time flies never to be recalled.
光阴一去不复返呀。
Recommender:云不见


作者:刘子仪
编辑:王萌


目前解决复杂KBQA(Knowledge Base Question Answering)的难点主要在于:问题带限制以及问题里包含有多个关系。这篇文章提出了一个query graph生成方法解决这个问题。



1. 背景介绍



在了解本文具体做什么之前,需要再明确下什么是带限制的问题和multi-hop of relations。带限制的问题,其实就是带限定词,例如Who was the first president of the U.S,这里的first就是限定词。multi-hop问题,例如像Who is the wife of the founder of Facebook, 包含两个关系,wife of和founder of,这就是多跳问题。目前的工作对于这两个难点都有一些研究进展,但是大多都是解决其中一个问题,针对第一个问题,已有的方法是先识别出一个relation path,再加限定词去形成一个query graph,针对第二个问题,最直接的思路就是扩展relation path,像广度优先搜索那样,但这种方法的问题是随着relation path变长,搜索空间会指数级增大。目前的工作很少有将两个问题一起解决,这篇文章提出一个改进的阶段性问题图生成方法,在延长relation path加入限定词来剪枝,有效的减少了搜索空间。



2. 方法



论文给了一个例子就是下图的Who is the first wife of TV producer that was nominated for The Jeff Probst Show? 这句话中有两个relation——“wife of”, “nominated for”, 两个constraint——”first“,”TV producer”。


接下来我们以一种比较直观的方式根据下图看看如何生成query graph,首先从一个grounded entity “The Jeff Probst Show”出发,找到一条核心relation path连接entity和answer,如果没有多余的限定词和其他关系,那这个answer就是图中的x,但是因为还有限定词,所以这个x变成了y1,一个中间节点。从y1接着往下走,加入问题中的限定词(如图所示的两个constraints,其中第二个argmin代表的是first,可以理解为在众多选项中选择最小的一个)。当我们已经找到所有候选query graphs,再通过和问题相似度进行排名,这一步通常使用CNN实现。最后选择分数最高的query graph来答题。



上述的方法是最近几年query graph生成概括性的总结,这篇文章也总结了之前方法中出现的问题:目前的成果只考虑了只有一个hop的relation path(或者是two hops with a CVT node),如果把核心relation path加长,假设加长到3个hop,那么可能会有10000个核心relation path,这会带来巨大的计算量。

所以本文的思路是在扩展relation path时加入限定词,可以减少搜索空间,并使用beam search和语义匹配来剪枝。

对于整体思路以及作者想要做什么有了了解之后,我们再来看看这篇文章的算法细节。

作者使用了三种action:extend,connect,aggregate来添加节点,这三个action其实就是上述过程的一个细分。如下图所示,extend的作用是找到relation,在图中第一个迭代找到了nominated for,通过extend把spouse,也就是wife这个信息加进来,并把原先的x换成一个中间节点;connect的作用是找到问题中其他grounded entity连接到已有的节点上;aggregate的作用是生成aggregation function的节点,例如图中的argmin,作者预先设定了一些关键词集合(e.g first, last most, least…)的aggregate function。


每一次迭代结束后,都会对候选query graphs进行排序,排序的方法是对每一个query graph进行一个7-dimensional向量的求导,在把这些向量送入一个全连接层,最后用softmax算出概率。

向量的第一维是BERT的词向量,第二维是所有grounded entity的linking scores,第三维是所有出现在query graph里的grounded entities的数量,四五六分别是实体类别,短语和最高级词语的数量,最后一维是答案的数量。



3. 实验与结果



(1) 实验设置

实验数据使用了三个数据集:Complex WebQuestions(CWQ), WebQuestionSP(WQSP)和ComplexQuestions(CQ)。实验使用了BERT base,BERT模型的超参数的dropout ratio设置为0.1。Knowledge base使用的是最新发布的Freebase,beam search的beam size K设为3。

(2) 实验结果


实验结果如图所示,作者和之前的一些模型进行了对比。图片中列举的前三个是不能解决multi-hop问题,第四个是没有使用beam search或者constraints来减少搜索空间。第五个是使用了beam size为1的beam search但没有解决constraints。六七两个是把复杂问题解构成简单问题。


实验结果证明作者的方法要好于前人的工作。


作者为了证明模型的有效性并不是依赖BERT,他们把BERT换成了LSTM,分数依然超越之前的模型。同时,作者还测试了去除掉extend/connect/aggregate三个动作的分数,结果如下图



(3) 错误分析
实验随机抽取了一百个error case并分析了错误原因。其中65%的错误是因为query graph的错误预测,问题中的关系人也很难观察到;27%是因为实体或者短语连接错误,一些限制type没有在连接过程中探测到;剩下6%是因为问题图生成有局限,一些问题找不到对应的策略去生成graph。


4. 总结



这项工作的主要创新点是把constraints和multi-hop结合起来解决,在生成query graph时,通过连接限定词来减少搜索域。我个人认为这篇文章没有太多给人耳目一新的地方,但是它很好地融合了前人的工作,并且对于query graph以及KBQA都做了详尽的解释,提出了extend,connect,aggregate等概念,把一些复杂问题简单化,很适合初次接触这个领域的人看。


  
  
    
下载一:中文版!学习TensorFlow、PyTorch、机器学习、深度学习和数据结构五件套!
后台回复【五件套


下载二:南大模式识别PPT
后台回复南大模式识别



说个正事哈



由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:

(1)点击页面最上方深度学习自然语言处理”,进入公众号主页。

(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。

感谢支持,比心



投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等

记得备注呦


推荐两个专辑给大家:
专辑 | 李宏毅人类语言处理2020笔记
专辑 | NLP论文解读
专辑 | 情感分析

整理不易,还望给个在看!

登录查看更多
2

相关内容

【ACL2020】基于图神经网络的文本分类新方法
专知会员服务
69+阅读 · 2020年7月12日
【知识图谱@ACL2020】Knowledge Graphs in Natural Language Processing
专知会员服务
66+阅读 · 2020年7月12日
ACL2020 | 基于Knowledge Embedding的多跳知识图谱问答
AI科技评论
18+阅读 · 2020年6月29日
论文浅尝 | 利用问题生成提升知识图谱问答
开放知识图谱
20+阅读 · 2019年11月5日
论文浅尝 | 基于知识库的神经网络问题生成方法
开放知识图谱
19+阅读 · 2019年6月21日
论文浅尝 | 基于知识库的自然语言理解 04#
开放知识图谱
14+阅读 · 2019年3月14日
论文浅尝 | 基于知识图谱子图匹配以回答自然语言问题
开放知识图谱
25+阅读 · 2018年6月26日
论文浅尝 | 基于知识图谱的子图匹配回答自然语言问题
开放知识图谱
27+阅读 · 2018年5月17日
揭开知识库问答KB-QA的面纱3·信息抽取篇
PaperWeekly
15+阅读 · 2017年8月14日
揭开知识库问答KB-QA的面纱1·简介篇
PaperWeekly
6+阅读 · 2017年8月3日
KBQA: 基于开放域知识库上的QA系统 | 每周一起读
Arxiv
14+阅读 · 2019年11月26日
Arxiv
5+阅读 · 2018年1月30日
VIP会员
相关VIP内容
【ACL2020】基于图神经网络的文本分类新方法
专知会员服务
69+阅读 · 2020年7月12日
【知识图谱@ACL2020】Knowledge Graphs in Natural Language Processing
专知会员服务
66+阅读 · 2020年7月12日
相关资讯
ACL2020 | 基于Knowledge Embedding的多跳知识图谱问答
AI科技评论
18+阅读 · 2020年6月29日
论文浅尝 | 利用问题生成提升知识图谱问答
开放知识图谱
20+阅读 · 2019年11月5日
论文浅尝 | 基于知识库的神经网络问题生成方法
开放知识图谱
19+阅读 · 2019年6月21日
论文浅尝 | 基于知识库的自然语言理解 04#
开放知识图谱
14+阅读 · 2019年3月14日
论文浅尝 | 基于知识图谱子图匹配以回答自然语言问题
开放知识图谱
25+阅读 · 2018年6月26日
论文浅尝 | 基于知识图谱的子图匹配回答自然语言问题
开放知识图谱
27+阅读 · 2018年5月17日
揭开知识库问答KB-QA的面纱3·信息抽取篇
PaperWeekly
15+阅读 · 2017年8月14日
揭开知识库问答KB-QA的面纱1·简介篇
PaperWeekly
6+阅读 · 2017年8月3日
KBQA: 基于开放域知识库上的QA系统 | 每周一起读
Top
微信扫码咨询专知VIP会员