Natural language processing techniques have demonstrated promising results in keyphrase generation. However, one of the major challenges in \emph{neural} keyphrase generation is processing long documents using deep neural networks. Generally, documents are truncated before given as inputs to neural networks. Consequently, the models may miss essential points conveyed in the target document. To overcome this limitation, we propose \emph{SEG-Net}, a neural keyphrase generation model that is composed of two major components, (1) a selector that selects the salient sentences in a document and (2) an extractor-generator that jointly extracts and generates keyphrases from the selected sentences. SEG-Net uses Transformer, a self-attentive architecture, as the basic building block with a novel \emph{layer-wise} coverage attention to summarize most of the points discussed in the document. The experimental results on seven keyphrase generation benchmarks from scientific and web documents demonstrate that SEG-Net outperforms the state-of-the-art neural generative methods by a large margin.


翻译:自然语言处理技术在关键词生成中显示出了有希望的结果。 但是, 关键词生成中的主要挑战之一是使用深神经网络处理长文档。 一般来说, 文件在作为神经网络投入之前被截断。 因此, 模型可能会错过目标文件中传达的基本点 。 为了克服这一限制, 我们提议 \ emph{ SEG- Net}, 由两个主要组成部分组成的神经关键词生成模型, (1) 选择文档中突出句子的选择器, (2) 联合提取并生成选定句子的关键词的提取器- 生成器。 SEG- Net 使用自惯性结构, 即自惯性结构, 作为基本构件, 使用新颖的 emph{ layer- 覆盖器 来概括文件中讨论的大多数点。 科学和网络文件中七个关键词生成基准的实验结果显示, SEG- Net 用大边距完成状态的神经基因转换方法。

0
下载
关闭预览

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
GAN新书《生成式深度学习》,Generative Deep Learning,379页pdf
专知会员服务
202+阅读 · 2019年9月30日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
【推荐】用TensorFlow实现LSTM社交对话股市情感分析
机器学习研究会
11+阅读 · 2018年1月14日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Paraphrase Generation with Deep Reinforcement Learning
Arxiv
6+阅读 · 2018年2月24日
VIP会员
Top
微信扫码咨询专知VIP会员