技术动态 | 揭开知识库问答KB-QA的面纱 4 · 向量建模篇

2017 年 5 月 27 日 开放知识图谱

作者,四川大学博士生,刘大一恒。本文已经获得 ChatbotMagazine 公众号授权。 

        


内容速览

  • 向量建模的核心思想

  • 如何用分布式表达表示答案和问题

  • 如何训练分布式表达

  • 论文实验与总结

本期我们将介绍KB-QA传统方法之一的向量建模(Vector Modeling),我们以一个该方法的经典代表作为例,为大家进一步揭开知识库问答的面纱。该方法来自Facebook公司Bordes A, Chopra S, Weston J的论文 Question answering with subgraph embeddings(文章发表于2014年的EMNLP会议)。

向量建模的核心思想

向量建模方法的思想和信息抽取的思想比较接近。首先根据问题中的主题词在知识库中确定候选答案。把问题和候选答案都映射到一个低维空间,得到它们的分布式表达(Distributed Embedding),通过训练数据对该分布式表达进行训练,使得问题向量和它对应的正确答案向量在低维空间的关联得分(通常以点乘为形式)尽量高。当模型训练完成后,则可根据候选答案的向量表达和问题表达的得分进行筛选,找出得分最高的作为最终答案。

此时,你的心中可能会出现两个问题,一是如何将问题和答案映射到低维空间,显然我们不能仅仅将自然语言的问题和答案进行映射,还要将知识库里的知识也映射到这个低维空间中(否则我们就只是在做QA而非KB-QA了)。第二个问题是,如果做过类似工作(one-shot,imgae caption,word embedding等)的朋友应该知道,使用这种方法是需要大量数据去训练这个低维空间的分布式表达的,而KB-QA中的benchmark数据集WebQuestion只含有5800多个问题答案对,这样的数据是难以训练好这种表达的。

接下来,就让我们带着这两个问题,一起看看作者是怎么解决的。

如何用分布式表达表示答案和问题

问题的分布式表达:首先我们把自然语言问题进行向量化,作者将输入空间的维度N设置为字典的大小+知识库实体数目+知识库实体关系数目,对于输入向量每一维的值设置为该维所代表的单词(当然这一维也可能代表的是某个实体数目或实体关系,对于问题的向量化,这些维数都设置为0)在问题中出现的次数(一般为0或1次),可以看出这是一种multi-hot的稀疏表达,是一种简化版的词袋模型(Bag-of-words model)。

我们用代表问题,用代表N维的问题向量,用矩阵将N维的问题向量映射到维的低维空间,那么问题的分布式表达即

答案的分布式表达:我们想想可以怎样对答案进行向量化,最简单的方式,就是像对问题一样的向量化方式,使用一个简化版的词袋模型。由于答案都是一个知识库实体,那么这样的表达就是一个one-hot的表达,显然,这种方式并没有把知识库的知识引入到我们的输入空间中。

第二种方式,我们把知识库想象成一个图,图的节点代表实体,边代表实体关系。通过问题中的主题词可以定位到图中的一个节点,该节点到答案节点有一条路径,我们把该路径上的所有边(实体关系)和点(实体)都以multi-hot的形式存下来作为答案的输入向量。我们这里只考虑一跳(hop)或者两跳的路径,如路径(barack obama, place of birth, honolulu)是一跳,路径(barack obama, people.person.place of birth, location.location.containedby, hawaii) 是两跳。因此这种表示是一种3-hot或4-hot的表示。

第三种方式,让我们回想一下我们在揭开知识库问答KB-QA的面纱3·信息抽取篇介绍的信息抽取的方法,对于每一个候选答案,该答案所对应的属性(type/gender等)和关系都是能够帮助我们判断它是否是正确答案的重要信息,因此我们可以把每个候选答案对应的知识库子图(1跳或2跳范围)也加入到输入向量中,假设该子图包含C个实体和D个关系,那么我们最终的表达是一种3+C+D-hot或者4+C+D-hot的表达。和信息抽取方法一样,我们也对关系的方向进行区分,因此我们输入向量的大小变为字典的大小+2*(知识库实体数目+知识库实体关系数目)。

同样的,我们用表示答案,用表示答案的输入向量,用矩阵将问题向量映射到维的低维空间,答案的分布式表达即

向量得分:最后我们用一个函数表征答案和问题的得分,我们希望问题和它对应的正确答案得尽量高分,通过比较每个候选答案的得分,选出最高的,作为正确答案。得分函数定义为二者分布式表达的点乘,即

上述整个流程如下图所示

如何训练分布式表达

对于训练数据集,我们一个定义margin-based ranking损失函数,公式如下

做过zero-shot或者对SVM了解的朋友应该对这个式子不会陌生,其中表示负样本集中的一个负样本(错误答案),m是一个值为0.1的margin。最小化这个损失函数,意味着我们希望正确答案和问题的得分要比任意错误答案的得分高出一个margin。

和训练word embedding一样,为减少计算量,我们通过采样的方式构造负样本,50%来自随机挑选,50%来自与问题主题词实体相连的其它路径。

由于benchmark数据集WebQuestion包含的样本数过少,作者还构造了其他几个数据集:

Freebase:选取freebase中包含出现频率高于5次实体的三元组,得到一个知识库子集(含2.2M实体和7K关系),对于每一个三元组如(subject, type1.type2.predicate, object),我们通过自动化的方式,生成这样的问题答案对:

Quesiton:“What is the predicate of the type2subject?” Answer:object

ClueWeb Extractions: 由于 Freebase的三元组都是形式化语言,并不贴近自然语言,我们也用同样的方式将ClueWeb上提取出的三元组(subject, “text string”, object)通过少量模板作同样的变换(作者提取了2M对三元组)。

这样我们就在WebQuestion数据集的基础上,得到了一个新的扩展数据集,该数据集的例子如下表所示:

可以看出,扩增版的数据集,问题大多数都是自动构造的,缺乏多样性和真实性。怎么办呢?我们希望训练数据中问题的分布式表达尽量贴近它所类似的真实问题的分布式表达。因此,作者在WikiAnswers中抓取了2.2M问题(不含答案),通过问题的分类标签,将它们分为了350k个类簇(可以理解为每个类簇里的自然语言问题它所表达的意思是一样的)。如下表所示

接下来我们就可以进行一个多任务学习(multi-task),让同一个类簇的问题得分较高,即,其训练方式和之前训练答案和问题得分是一样的。

至此,通过以上两种训练,我们的分布式表达就训练完毕了。

论文实验与总结

根据问题首先要确定候选答案,这里作者确定候选答案的方式和信息抽取略有不同。首先在从问题中主题词对应的知识库实体出发,通过beam search的方式保存10个和问题最相关的实体关系(通过把实体关系当成答案,用式子的得分作为beam search的排序标准)。接下来选取主题词两跳范围以内的路径,且该路径必须包含这10个关系中的关系,将满足条件的路径的终点对应的实体作为候选答案,其中,1跳路径的权值是2跳的1.5倍(因为2跳包含的元素更多)。

确定完候选答案后,选取得分最高的作为最终答案。

该方法在WebQuestion数据集上进行测试,取得了39.2的F1-Score。


可以看出,相比信息抽取和语义解析的方法,该方法几乎不需要任何手工定义的特征(hand- crafted features),也不需要借助额外的系统(词汇映射表,词性标注,依存树等)。相对来说,比较简单,也较容易实现,能取得39.2的F1-score得分(斯坦福13年的语义解析方法只有35.7)也说明了该方法的强大性。通过自动化的方式扩展数据集和多任务训练也部分解决了实验数据不足的缺点。

然而,向量建模方法,是一种趋于黑盒的方法,缺少了解释性(语义解析可以将问题转化成一种逻辑形式的表达,而信息抽取构造的每一维特征的含义也是离散可见的),更重要的是,它也缺少了我们的先验知识推理(可以看出其F1-score略低于14年使用了大量先验知识的信息抽取方法,该方法F1-score为42.0),事实上,这也是现在深度学习一个比较有争议的诟病。

就篇论文的向量建模方法来说,也存在一些问题,比如对问题的向量表示采用了类似词袋模型的方法,这样相当于并未考虑问题的语言顺序(比如 “谢霆锋的爸爸是谁?” 谢霆锋是谁的爸爸? 这两个问题用该方法得到的表达是一样的,然而这两个问题的意思显然是不同的),且训练分布式表达的模型很简单,相当于一个两层的感知机。这些问题,可以通过深度学习来解决。

随着深度学习的加入,KB-QA 进入了一个新的时代。下一期,我们将进入深度学习篇,由于深度学习可以对传统的三种方法都可以进行提升,因此我们打算将深度学习篇拆成2~3篇来进行讲解,进一步揭开KB-QA的面纱。

敬请期待。


ChatbotMagazine 是智言科技(深圳)有限公司旗下的一个技术分享栏目,智言科技是一家专注于基于知识图谱问答系统研发的 AI 公司。欢迎扫描二维码关注 ChatbotMagazine 公众号。





OpenKG.CN


中文开放知识图谱(简称OpenKG.CN)旨在促进中文知识图谱数据的开放与互联,促进知识图谱和语义技术的普及和广泛应用。

点击阅读原文,进入 OpenKG 博客。

登录查看更多
1

相关内容

知识库(Knowledge Base)是知识工程中结构化,易操作,易利用,全面有组织的知识集群,是针对某一(或某些)领域问题求解的需要,采用某种(或若干)知识表示方式在计算 机存储器中 存储、组织、管理和使用的互相联系的知识片集合。这些知识片包括与领域相关的理论知识、事实数据,由专家经验得到的启发式知识,如某领域内有关的定义、定 理和运算法则以及常识性知识等。
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
132+阅读 · 2020年2月13日
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
168+阅读 · 2020年2月13日
【阿里技术论文】AliMe KBQA:阿里小蜜中的结构化知识问答
专知会员服务
82+阅读 · 2019年12月14日
论文浅尝 | 基于Universal Schema与Memory Network的知识+文本问答
论文浅尝 | 基于RNN与相似矩阵CNN的知识库问答
开放知识图谱
8+阅读 · 2018年5月29日
论文浅尝 | 使用变分推理做KBQA
开放知识图谱
12+阅读 · 2018年4月15日
揭开知识库问答KB-QA的面纱3·向量建模篇
PaperWeekly
8+阅读 · 2017年8月23日
KBQA从入门到放弃 - Part 2 | 每周话题精选 #09
PaperWeekly
9+阅读 · 2017年8月16日
揭开知识库问答KB-QA的面纱3·信息抽取篇
PaperWeekly
15+阅读 · 2017年8月14日
KBQA从入门到放弃—入门篇 | 每周话题精选 #08
PaperWeekly
14+阅读 · 2017年8月8日
揭开知识库问答KB-QA的面纱1·简介篇
PaperWeekly
6+阅读 · 2017年8月3日
Arxiv
99+阅读 · 2020年3月4日
Bidirectional Attention for SQL Generation
Arxiv
4+阅读 · 2018年6月21日
Arxiv
6+阅读 · 2018年4月21日
Arxiv
6+阅读 · 2018年3月31日
VIP会员
相关资讯
论文浅尝 | 基于Universal Schema与Memory Network的知识+文本问答
论文浅尝 | 基于RNN与相似矩阵CNN的知识库问答
开放知识图谱
8+阅读 · 2018年5月29日
论文浅尝 | 使用变分推理做KBQA
开放知识图谱
12+阅读 · 2018年4月15日
揭开知识库问答KB-QA的面纱3·向量建模篇
PaperWeekly
8+阅读 · 2017年8月23日
KBQA从入门到放弃 - Part 2 | 每周话题精选 #09
PaperWeekly
9+阅读 · 2017年8月16日
揭开知识库问答KB-QA的面纱3·信息抽取篇
PaperWeekly
15+阅读 · 2017年8月14日
KBQA从入门到放弃—入门篇 | 每周话题精选 #08
PaperWeekly
14+阅读 · 2017年8月8日
揭开知识库问答KB-QA的面纱1·简介篇
PaperWeekly
6+阅读 · 2017年8月3日
Top
微信扫码咨询专知VIP会员