神经语言生成(NLG)——使用神经网络模型生成连贯的文本——是自动化文本创建最有前途的方法之一。近年来,随着深度语境语言建模(如LSTMs、GPT、GPT2)和迁移学习(如ELMo、BERT)的发展,神经文本生成出现了范式转变。虽然这些工具极大地改善了NLG的状态,但是对于低资源任务,最先进的NLG模型仍然面临许多挑战: 生成的文本缺乏多样性,描述的情况违反常识性规则,使用事实信息的困难,以及设计可靠的评估指标的困难。在本教程中,我们将概述当前神经网络架构的最新技术,以及它们如何形成文本生成的最新研究方向。我们将讨论这些模型在生成连贯文本时如何以及为什么成功或失败,并对几个应用程序提供见解。
目录内容: