Paper | ACL2018 抽取式摘要之 NEUSUM

2020 年 6 月 8 日 AINLP

论文题目:Neural Document Summarization by Jointly Learning to Score and Select Sentences. 

论文作者:Qingyu Zhou, Nan Yang, Furu Wei, Shaohan Huang, Ming Zhou, Tiejun Zhao.

下载链接:https://aclweb.org/anthology/P18-1061

代码:https://github.com/magic282/NeuSum

来源:ACL 2018

分类:NLP / 文本摘要 / 抽取式摘要


太长不看版

本文提出了一种端到端的抽取式文本摘要模型(NEUSUM)。

该模型将选择策略集成到打分模型中,解决了此前抽取式文本摘要中句子打分和句子选择这两部分割裂的问题,端到端且不再需要人为干预。

并达到了 CNN/Daily Mail 数据的 state-of-the-art




主要思想



基于深度学习的抽取式摘要的方法基本分为以下四个步骤:句子编码、文章编码、句子打分、摘要选择。


这其中摘要选择部分的顺利进行依赖于句子可以很好的打分,然而在此前的研究方法句子打分与句子选择(即摘要选择)这两个环节常常被割裂开来


本文针对这一现象,提出了一种端到端的抽取式文本摘要模型(NEUSUM)选择策略集成到打分模型中,解决了此前抽取式文本摘要中句子打分和句子选择这两部分割裂的问题端到端且不再需要人为干预并达到了 CNN/Daily Mail 的 state-of-the-art




问题定义



抽取式摘要的目的在于抽取能够包含文章重要信息的句子,句子打分越高,其包含的信息越重要,越成为表示文章的摘要句。


本模型的训练目标即学到一个score function(打分函数g,该函数目的是计算加入当前句子后生成的摘要能得到的ROUGE F1的收益。在测试时,模型在每一个 step t 选出能使打分函数 g 最高的句子。


公式中函数 r 即表ROUGE F1。S表示当前句子与已经选出的句子集合。在每一个时间步 t,模型会选出能够得到最大收益(即使函数 g 得到最大值的句子)直至达到摘要限制长度。




模型结构





基于深度学习的抽取式摘要的方法基本分为以下四个步骤:1.句子编码、2.文章编码、3.句子打分、4.摘要选择。

而在本文的模型中:

1-2)Document & Sentence Encoding:句子编码、文章编码使用BiGRU

3-4)Sentence Scoring and Selection:句子打分、摘要选择两部分融合到一起


融合到一起的好处

a. 句子打分时可以看到前面句子的信息(前人方法的句子打分时句子间相对独立)

b. 打分函数 的存在简化了句子选择模块


句子打分的具体实现:

子打分需要同时考虑当前句子的重要性和已经选出的summary,此处加入另一个GRU(公式10)。

然后在GRU之上连接句子打分器(scorer)。

The sentence scorer 是一个双层MLP,两个向量作为输入:current hidden ht 和 sentence vector si(公式11(有bias,为了简化在公式中省略)),计算得到的即为在 t 时刻所有句子的分数

然后选择得分最高的句子作为时刻 t 模型选择的摘要句。


损失函数:

模型预测值 P 与标准值 Q 之间的数据分布差异我们使用KL散度进行计算,其中 P 分布的一化计算公式:

Q 分布的计算公式:

Objective Function:KL-loss-function:    DKL(P || Q)            (20)




数据构建



CNN/Daily Mail 是人为标注的生成式摘要的数据集。本文构建抽取式摘要训练数据的方法是 maximizing the ROUGE-2 F1 score


数据预处理部分(包括sentence splitting, word tokenization)参照See et al. (2017), 使用非匿名版本。


CNN/Daily Mail 数据集统计如下表:

实验结果:



结论



本文的方法与以前的方法最大的不同之处在于,它将句子评分和选择结合成一个阶段。

每次选择一个句子,根据已输出摘要和当前状态对句子进行评分。

最终的ROUGE评价结果表明,本文提出的联合评分和选择方法明显优于以往的分离方法。


推荐阅读

文本自动摘要任务的“不完全”心得总结番外篇——submodular函数优化

Node2Vec 论文+代码笔记

模型压缩实践收尾篇——模型蒸馏以及其他一些技巧实践小结

中文命名实体识别工具(NER)哪家强?

学自然语言处理,其实更应该学好英语

斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用

太赞了!Springer面向公众开放电子书籍,附65本数学、编程、机器学习、深度学习、数据挖掘、数据科学等书籍链接及打包下载

数学之美中盛赞的 Michael Collins 教授,他的NLP课程要不要收藏?

自动作诗机&藏头诗生成器:五言、七言、绝句、律诗全了

模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法

这门斯坦福大学自然语言处理经典入门课,我放到B站了

征稿启示 | 稿费+GPU算力+星球嘉宾一个都不少

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。


阅读至此了,点个在看吧👇

登录查看更多
3

相关内容

【论文推荐】文本摘要简述
专知会员服务
68+阅读 · 2020年7月20日
【综述】关键词生成,附10页pdf论文下载
专知会员服务
52+阅读 · 2019年11月20日
【论文笔记】基于强化学习的句子摘要排序
【ACL】文本摘要研究工作总结
中国人工智能学会
30+阅读 · 2019年8月10日
赛尔原创 | 文本摘要简述
哈工大SCIR
22+阅读 · 2019年3月25日
ACL 2018 论文解读 | 基于深度强化学习的远程监督关系抽取
黑龙江大学自然语言处理实验室
15+阅读 · 2018年12月10日
论文浅尝 | 常识用于回答生成式多跳问题
开放知识图谱
16+阅读 · 2018年11月24日
论文报告 | Graph-based Neural Multi-Document Summarization
科技创新与创业
15+阅读 · 2017年12月15日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
赛尔原创 | 用PyTorch搭建抽取式摘要系统
哈工大SCIR
6+阅读 · 2017年9月25日
Arxiv
5+阅读 · 2019年8月22日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
7+阅读 · 2018年5月23日
VIP会员
相关资讯
【论文笔记】基于强化学习的句子摘要排序
【ACL】文本摘要研究工作总结
中国人工智能学会
30+阅读 · 2019年8月10日
赛尔原创 | 文本摘要简述
哈工大SCIR
22+阅读 · 2019年3月25日
ACL 2018 论文解读 | 基于深度强化学习的远程监督关系抽取
黑龙江大学自然语言处理实验室
15+阅读 · 2018年12月10日
论文浅尝 | 常识用于回答生成式多跳问题
开放知识图谱
16+阅读 · 2018年11月24日
论文报告 | Graph-based Neural Multi-Document Summarization
科技创新与创业
15+阅读 · 2017年12月15日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
赛尔原创 | 用PyTorch搭建抽取式摘要系统
哈工大SCIR
6+阅读 · 2017年9月25日
Top
微信扫码咨询专知VIP会员