【EMNLP2020】自然语言生成,Neural Language Generation

2020 年 11 月 20 日 专知


神经语言生成(NLG)——使用神经网络模型生成连贯的文本——是自动化文本创建最有前途的方法之一。近年来,随着深度语境语言建模(如LSTMs、GPT、GPT2)和迁移学习(如ELMo、BERT)的发展,神经文本生成出现了范式转变。虽然这些工具极大地改善了NLG的状态,但是对于低资源任务,最先进的NLG模型仍然面临许多挑战: 生成的文本缺乏多样性,描述的情况违反常识性规则,使用事实信息的困难,以及设计可靠的评估指标的困难。在本教程中,我们将概述当前神经网络架构的最新技术,以及它们如何形成文本生成的最新研究方向。我们将讨论这些模型在生成连贯文本时如何以及为什么成功或失败,并对几个应用程序提供见解。


目录内容:

Title Description

导论

Introduction

本节将通过介绍神经网络建模方法。This section will introduce the tutorial by presenting the recent impact of neural network modeling approaches on the field.

神经网络建模

Neural Network Modeling

自然文本生成建模策略。Modeling strategies for natural text generation

训练与编码

Training and Decoding

神经自然语言生成模型的编码与解码策略,Various decoding and learning strategies for neural NLG models

基准与评价

Benchmarks and Evaluation

自动与人工评价,Automatic and human evaluation of NLG

构建神经生成模型

Building Neural Generation Models

部署自然语言生成模型的挑战,Challenges for deploying natural language generation models in production.


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“NLG” 就可以获取【EMNLP2020】自然语言生成,Neural Language Generation》专知下载链接

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
2

相关内容

自然语言生成(NLG)是自然语言处理的一部分,从知识库或逻辑形式等等机器表述系统去生成自然语言。这种形式表述当作心理表述的模型时,心理语言学家会选用语言产出这个术语。自然语言生成系统可以说是一种将资料转换成自然语言表述的翻译器。NLG出现已久,但是商业NLG技术直到最近才变得普及。自然语言生成可以视为自然语言理解的反向: 自然语言理解系统须要厘清输入句的意涵,从而产生机器表述语言;自然语言生成系统须要决定如何把概念转化成语言。
【EMNLP2020】序列知识蒸馏进展,44页ppt
专知会员服务
38+阅读 · 2020年11月21日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
69+阅读 · 2020年10月24日
【文本生成现代方法】Modern Methods for Text Generation
专知会员服务
43+阅读 · 2020年9月11日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
自然语言处理ACL2020论文列表
专知
12+阅读 · 2020年6月23日
39页《迁移学习自然语言生成》PPT
专知
9+阅读 · 2019年2月13日
基于深度学习的文本生成【附217页PPT下载】
专知
35+阅读 · 2018年11月24日
自然语言处理(NLP)前沿进展报告(PPT下载)
Arxiv
0+阅读 · 2021年1月24日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
21+阅读 · 2019年8月21日
Neural Response Generation with Meta-Words
Arxiv
6+阅读 · 2019年6月14日
Arxiv
3+阅读 · 2018年4月3日
Arxiv
7+阅读 · 2018年1月30日
VIP会员
相关论文
Arxiv
0+阅读 · 2021年1月24日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
21+阅读 · 2019年8月21日
Neural Response Generation with Meta-Words
Arxiv
6+阅读 · 2019年6月14日
Arxiv
3+阅读 · 2018年4月3日
Arxiv
7+阅读 · 2018年1月30日
Top
微信扫码咨询专知VIP会员