META微软等最新ACL2022教程《非自回归序列生成》,168页ppt

2022 年 6 月 3 日 专知

ACL 是计算语言学和自然语言处理领域的顶级国际会议,由国际计算语言学协会组织,每年举办一次。一直以来,ACL 在 NLP 领域的学术影响力都位列第一,它也是 CCF-A 类推荐会议。今年的 ACL 大会已是第 60 届,于 5 月 22-5 月 27 在爱尔兰都柏林举办。


ACL 2022论文奖项公布,伯克利摘得最佳论文,陈丹琦、杨笛一等华人团队获杰出论文


来自META微软等最新ACL2022教程《非自回归序列生成》,168页ppt,值得关注!


非自回归序列生成(Non-autoregressive sequence generation, NAR)尝试并行生成全部或部分输出序列,以加速生成过程,避免自回归生成中潜在的问题(如标签偏差、暴露偏差)。虽然它受到了大量的研究关注,并已被应用于自然语言和语音中的许多序列生成任务,但由于缺乏建模能力,原始NAR模型在缩小与最先进的自回归模型之间的性能差距方面仍面临许多挑战。在本教程中,我们将全面介绍和回顾非自回归序列生成,分为四个部分:1)背景,包括NAR生成的动机,问题定义,评估协议,以及与标准自回归生成方法的比较。2)方法,包括不同的方面:模型架构、目标函数、训练数据、学习范式和额外的推理技巧。3)应用,涵盖了文本和语音生成中的不同任务,以及应用中的一些高级主题。4)结论,我们描述了几个研究挑战,并讨论了潜在的未来研究方向。我们希望本教程可以服务于从事非自回归序列生成的学术研究人员和行业从业人员


https://nar-tutorial.github.io/acl2022/


目录内容:


  1. Introduction (~ 20 minutes)
    1.1 Problem definition
    1.2 Evaluation protocol
    1.3 Multi-modality problem

  2. Methods (~ 80 minutes)
    2.1 Model architectures
    2.1.1 Fully NAR models
    2.1.2 Iteration-based NAR models
    2.1.3 Partially NAR models
    2.1.4 Locally AR models
    2.1.5 NAR models with latent variables
    2.2 Objective functions
    2.2.1 Loss with latent variables
    2.2.2 Loss beyond token-level
    2.3 Training data
    2.4 Learning paradigms
    2.4.1 Curriculum learning
    2.4.2 Self-supervised pre-training
    2.5 Inference methods and tricks

  3. Applications (~ 60 minutes)
    3.1 Task overview in text/speech/image generation
    3.2 NAR generation tasks
    3.2.1 Neural machine translation
    3.2.2 Text error correction
    3.2.3 Automatic speech recognition
    3.2.4 Text to speech / singing voice synthesis
    3.2.5 Image (pixel/token) generation
    3.3 Summary of NAR Applications
    3.3.1 Benefits of NAR for different tasks
    3.3.2 Addressing target-target/source dependency
    3.3.3 Data difficulty vs model capacity
    3.3.4 Streaming vs NAR, AR vs iterative NAR

  4. Open problems, future directions, Q\&A (~ 20 minutes)


讲者:



参考文献:

  • Rohan Anil, Gabriel Pereyra, Alexandre Passos, Robert Ormandi, George E Dahl, and Geoffrey E Hinton. 2018. Large scale distributed neural network training through online distillation. arXiv preprint arXiv:1804.03235.

  • Nanxin Chen, Shinji Watanabe, Jesus Villalba, and ´ Najim Dehak. 2019. Non-autoregressive transformer automatic speech recognition. arXiv preprint arXiv:1911.04908.

  • Wenhu Chen, Evgeny Matusov, Shahram Khadivi, and Jan-Thorsten Peter. 2016. Guided alignment training for topic-aware neural machine translation. CoRR, abs/1607.01628.

专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“S168” 就可以获取META微软等最新ACL2022教程《非自回归序列生成》,168页ppt》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取70000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取70000+AI主题知识资料
登录查看更多
2

相关内容

【微软亚研ICASSP 2022 教程】神经文本语音合成,107页ppt
专知会员服务
27+阅读 · 2022年5月25日
《机器学习的最优传输》教程,63页PPT
专知会员服务
61+阅读 · 2022年4月30日
专知会员服务
48+阅读 · 2021年4月24日
少即是多?非参数语言模型,68页ppt
专知会员服务
23+阅读 · 2020年11月22日
专知会员服务
44+阅读 · 2020年10月31日
最新《生成式对抗网络》简介,25页ppt
专知会员服务
173+阅读 · 2020年6月28日
ICML 2022 | 探索语言模型的最佳架构和训练方法
PaperWeekly
0+阅读 · 2022年7月5日
WWW2022 | 基于因果的推荐算法教程
机器学习与推荐算法
3+阅读 · 2022年5月26日
浅谈问题生成(Question Generation)
PaperWeekly
5+阅读 · 2021年12月11日
【CIKM2021-Tutorial】图挖掘公平性,166页ppt
图与推荐
4+阅读 · 2021年11月7日
自然语言处理顶会EMNLP2018接受论文列表!
专知
87+阅读 · 2018年8月26日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
3+阅读 · 2008年12月31日
Arxiv
20+阅读 · 2021年9月21日
VIP会员
相关VIP内容
【微软亚研ICASSP 2022 教程】神经文本语音合成,107页ppt
专知会员服务
27+阅读 · 2022年5月25日
《机器学习的最优传输》教程,63页PPT
专知会员服务
61+阅读 · 2022年4月30日
专知会员服务
48+阅读 · 2021年4月24日
少即是多?非参数语言模型,68页ppt
专知会员服务
23+阅读 · 2020年11月22日
专知会员服务
44+阅读 · 2020年10月31日
最新《生成式对抗网络》简介,25页ppt
专知会员服务
173+阅读 · 2020年6月28日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
3+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员