题目: Neural Abstractive Summarization with Structural Attention

简介: 基于RNN的注意力编码器-解码器体系结构在新闻文章的抽象摘要方面实现了令人印象深刻的性能。但是,这些方法无法解决文档句子中的长期依赖性。在多文档摘要任务中,例如在诸如Yahoo等社区问题解答(CQA)网站中出现的主题中总结流行观点时,此问题会更加严重。这些线索包含的答案通常相互重叠或矛盾。在这项工作中,我们提出了一种基于结构注意力的分层编码器,以对诸如句子间和文档间的依存关系进行建模。我们将流行的指针生成器体系结构和从中衍生的某些体系结构设置为基线,并表明它们无法在多文档设置中生成良好的摘要。我们进一步说明,我们提出的模型在单文档和多文档摘要设置中均比基线有了显着改进–在以前的设置中,它在CNN和CQA数据集上分别比最佳基线低1.31和7.8 ROUGE-1点;在后一种设置中,CQA数据集的性能进一步提高了1.6 ROUGE-1点

成为VIP会员查看完整内容
32

相关内容

【IJCAI2020】图神经网络预测结构化实体交互
专知会员服务
42+阅读 · 2020年5月13日
【ACL2020-复旦大学NLP】异构图神经网络的文档摘要提取
专知会员服务
34+阅读 · 2020年5月1日
【IJCAI2020-CMU】结构注意力的神经抽象摘要
专知会员服务
21+阅读 · 2020年4月23日
【论文笔记】基于强化学习的句子摘要排序
【ACL】文本摘要研究工作总结
专知
26+阅读 · 2019年8月10日
用深度学习做文本摘要
专知
24+阅读 · 2019年3月30日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
干货|当深度学习遇见自动文本摘要,seq2seq+attention
机器学习算法与Python学习
10+阅读 · 2018年5月28日
论文浅尝 | 利用 RNN 和 CNN 构建基于 FreeBase 的问答系统
开放知识图谱
11+阅读 · 2018年4月25日
论文报告 | Graph-based Neural Multi-Document Summarization
科技创新与创业
15+阅读 · 2017年12月15日
Arxiv
3+阅读 · 2019年9月5日
Arxiv
5+阅读 · 2019年8月22日
Arxiv
3+阅读 · 2018年12月18日
VIP会员
相关VIP内容
相关资讯
【论文笔记】基于强化学习的句子摘要排序
【ACL】文本摘要研究工作总结
专知
26+阅读 · 2019年8月10日
用深度学习做文本摘要
专知
24+阅读 · 2019年3月30日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
干货|当深度学习遇见自动文本摘要,seq2seq+attention
机器学习算法与Python学习
10+阅读 · 2018年5月28日
论文浅尝 | 利用 RNN 和 CNN 构建基于 FreeBase 的问答系统
开放知识图谱
11+阅读 · 2018年4月25日
论文报告 | Graph-based Neural Multi-Document Summarization
科技创新与创业
15+阅读 · 2017年12月15日
微信扫码咨询专知VIP会员