DRr-Net:基于动态重读机制的句子语义匹配方法

2019 年 4 月 3 日 PaperWeekly


作者丨张琨 

学校丨中国科学技术大学博士生

研究方向丨自然语言处理




论文动机


语义理解与语义表征一直是自然语言理解中基础但十分关键的一个内容,得益于大规模的数据和先进的深度学习技术,机器在具体的任务上的表现越来越接近人类表现,这其中注意力机制(Attention Mechanism)扮演着一个不可或缺的角色,它可以帮助模型选择出句子中对语义表达最重要的信息,从而生成一种更好地语义表示向量,但是大多数的方法都是一次性地选择出所有重要的信息,该方法明显是不够合理的。


事实上,人在阅读的时候,会根据已学习到的信息去动态选择需要关注的内容。更具体的,认知心理学实验发现人在阅读的时候有两个特点:1)人对句子中的词序其实并没有很敏感,即使打乱顺序我们依然能够理解;2)人在阅读时倾向于阅读多遍关键信息,从而实现对句子语义的精确理解,如下图的例子:



左图是利用眼球追踪仪得到的注意力分布,可以看到有些词被反复阅读,而有些词并没有被阅读到。右图虽然词序是乱的,但是我们可以利用丰富的先验知识自动纠正这种错误,从而理解句子要表达的语义。


基于以上的两个现象,本文提出了一种 Dynamic Re-read 机制,通过对重点内容的自动选择和反复阅读,从而实现对语义的精确理解。


模型


首先是模型框架:



模型可以大致分为三个模块: 


Input Embedding:利用充足的特征信息对输入的每个词和每个句子进行编码; 


Dynamic Re-read Mechanism:每一步只关注一个最重要的词,并且反复对重要的内容进行理解;


Label Prediction:对输入的两个句子之际的关系进行分类。


接下来,文章从这三个方面对整个模型进行详细分析。


Input Embedding 


对词的编码是一个常规操作,文本使用了预训练的词向量(glove 840d),字符级别的 embedding,以及一些人工特征,然后将其拼接起来,为了更好地表示每个词的语义信息,本文将其通过一个两层的高速网络(Highway Network),最终得到每个词的语义表示


众所周知,人类拥有丰富的先验知识,因此可以利用这些知识直接选择出句子中对语义表示重要的词,但这对模型而言是非常难的,因此,模型首先要做的就是对整个句子的全面理解,尽可能多地了解句子信息,这样才能为更好地理 解句子语义奠定基础。


为了实现这个目的,本文设计了一种修改版的 Stack-RNN,它将 (l-1) 层的输入和输出拼接起来,作为 l 层的输入,通过这种类残差的结构,模型就能够保留所有的信息,该过程可以形式化为:



其中,表示 l 层的 RNN,这里使用的 GRU 作为 RNN 的基本单元。接下来要做的就是如何压缩这些词的向量表示,从全局的角度对句子语义进行向量表示。


得益于自注意力机制(Self-attention),本文在 Stack-RNN 的最后输出上做 self-attention,从而抽取对语义表示重要的信息,将这些信息加权求和,得到句子的全局语义表示,在文中,作者称之为 original sentence representation,该过程可以由如下表示:



Dynamic Re-read Mechanism 


该模块主要是受人在阅读时的习惯启发而设计出来的,人在阅读时:1)人对句子中的词序其实并没有很敏感,即使打乱顺序我们依然能够理解;2)人在阅读时倾向于阅读多遍关键信息,从而实现对句子语义的精确理解。


因此该模块要实现的目标就是如何根据已学习到的知识在每一步选择一个重要的词进行理解,以及这些重要的词该如何处理。首先,整体的过程可以形式化为:



即先通过一个选择函数,在整个输入序列中选出第 t 步的输入,然后将该输入送给一个 GRU,而最后重要信息表示向量使用的是 GRU 的最后一个输出状态,因为 GRU 的在每个时刻的输入是动态变化的,因此作者将其称之为 Dynamic。


从该公式可以看出选择函数需要的输入有三个:a 句子的整个序列动态 RNN 的前一个时刻的隐层状态b 句子的全局语义表示,因为该模型针对的是句子语义匹配任务,因此作者将 b 句子的全局语义表示作为一个额外的 context 信息,这样模型就能更好的选择出符合上下文的语义信息。


针对选择函数,作者利用了注意力机制来实现选择过程:



相当于通过注意力机制在整个序列上计算出来当前时刻的重要程度分布,然后选择最大的权值对应的词,将这个词作为当前时刻的输入,然后将其送给 GRU。


但是,该过程有一个问题,最后一个公式选择出索引的操作是不可导的,这里作者做了一个 trick,对 softmax 函数加了一个任意大的常数 β,这样权值最大的就趋近于 1 了,而其他的权值就趋近于 0 了。


通过这种近似的方法,实现了最后的选择操作,并保证可导。因此,上式可以修改为:



这就完成了整个动态选择的过程。


Label Prediction 


经过前两个模块,模型就生成了全局语义表示和局部重要表示,接下来作者通过启发式的拼接操作来整合这些信息,具体可以通过如下公式表示:



这里是分别使用了不同的语义表示进行分类,为了是结果更准确,鲁棒性更好,作者设计了一个简单的加权方式将这两个结果进行融合,从而最终进行分类。



以上就是模型的整体结构。 


该模型的创新点主要集中在 Dynamic Re-read 机制的设计上,作者通过模仿人的阅读习惯,每次只选择一个重要的词,然后对这些重要的词进行反复阅读,从而实现对句子语义的准确理解。


实验结果


首先是实验结果图:



作者在两个任务,三个数据集上进行了测试,从实验结果上看,模型取得了非常不错的效果。同时为了验证模型的有效性,作者还对每个模块进行了验证,从结果上看,这其中最重要的还是全局的语义表示,重要信息的局部表示是在 最好的结果上进行了提升,其重要程度要弱于全局语义表示。


个人推测人在阅读时可以利用丰富的先验知识去直接挑选重要信息,而这对模型来说就有些困难了,他需要首先做的是对句子信息的整体把握,否则很难取得很好的效果。如果单纯只挑重要的信息的话,模型很难对句子语义有一个全面的表达。所以全局的语义表示对模型而言还是非常重要的。 


为了更好地展示模型的能力,作者同时也进行了一些 case study,如下图:



从结果上看,模型确实选择出了非常重要的词,但同时模型也在重复这些词,有时候甚至只重复一个词,最终导致模型得出错误的结论,这可能跟动态选择的过程是一个非监督的过程有关,这点还是值得仔细思考的。


总结

本文通过利用人的阅读习惯,将注意力机制一次性选择所有重要信息的机制修改为根据上下文动态选择重要的信息,并通过全局的表示和局部的表示对句子语义进行更全面的理解表示,是一个非常有意思的工作。按照作者的思路,在相关的领域,例如 semantic matching, Visual Question Answering 等方面都可以进行一些尝试,这是一个很值得研究的工作。




点击以下标题查看更多往期内容: 




#投 稿 通 道#

 让你的论文被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢? 答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。


📝 来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向) 

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接 

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志


📬 投稿邮箱:

• 投稿邮箱:hr@paperweekly.site 

• 所有文章配图,请单独在附件中发送 

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通




🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。


▽ 点击 | 阅读原文 | 下载论文

登录查看更多
1

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
【ICML2020-西电】用于语言生成的递归层次主题引导RNN
专知会员服务
21+阅读 · 2020年6月30日
基于深度学习的多标签生成研究进展
专知会员服务
141+阅读 · 2020年4月25日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
基于句子嵌入的无监督文本摘要(附代码实现)
论文浅尝 | 基于知识库的自然语言理解 01#
开放知识图谱
15+阅读 · 2019年2月22日
论文解读 | 基于递归联合注意力的句子匹配模型
论文浅尝 | 基于知识图谱的子图匹配回答自然语言问题
开放知识图谱
27+阅读 · 2018年5月17日
赛尔原创 | 基于深度学习的候选答案句抽取研究
哈工大SCIR
5+阅读 · 2017年10月9日
论文动态 | 基于知识图谱的问答系统关键技术研究 #04
开放知识图谱
10+阅读 · 2017年7月9日
Arxiv
29+阅读 · 2020年3月16日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Arxiv
3+阅读 · 2019年3月1日
VIP会员
Top
微信扫码咨询专知VIP会员