神经语言生成(NLG)——使用神经网络模型生成连贯的文本——是自动化文本创建最有前途的方法之一。近年来,随着深度语境语言建模(如LSTMs、GPT、GPT2)和迁移学习(如ELMo、BERT)的发展,神经文本生成出现了范式转变。虽然这些工具极大地改善了NLG的状态,但是对于低资源任务,最先进的NLG模型仍然面临许多挑战: 生成的文本缺乏多样性,描述的情况违反常识性规则,使用事实信息的困难,以及设计可靠的评估指标的困难。在本教程中,我们将概述当前神经网络架构的最新技术,以及它们如何形成文本生成的最新研究方向。我们将讨论这些模型在生成连贯文本时如何以及为什么成功或失败,并对几个应用程序提供见解。
目录内容:
| Title | Description | 
|---|---|
导论 Introduction  |  
      本节将通过介绍神经网络建模方法。This section will introduce the tutorial by presenting the recent impact of neural network modeling approaches on the field.  |  
     
神经网络建模 Neural Network Modeling  |  
      自然文本生成建模策略。Modeling strategies for natural text generation | 
训练与编码 Training and Decoding  |  
      神经自然语言生成模型的编码与解码策略,Various decoding and learning strategies for neural NLG models | 
基准与评价 Benchmarks and Evaluation  |  
      自动与人工评价,Automatic and human evaluation of NLG | 
构建神经生成模型 Building Neural Generation Models  |  
      部署自然语言生成模型的挑战,Challenges for deploying natural language generation models in production. | 
专知便捷查看
便捷下载,请关注专知公众号(点击上方蓝色专知关注)
后台回复“NLG” 就可以获取《【EMNLP2020】自然语言生成,Neural Language Generation》专知下载链接