越来越大的比例的自然语言处理(NLP)任务围绕着从概率语言模型生成文本。尽管有这种趋势,但改进或在这些生成的文本中指定偏好的技术主要依赖基于直觉的启发式方法。此外,缺乏他们的动机、实践实施、成功与陷阱的统一呈现。因此,实践者必须在生成算法之间进行盲目选择,例如顶层采样或束搜索,这可能导致结果大相径庭。与此同时,语言生成研究继续批评和改进标准工具箱,进一步增加了该领域的混乱程度。在这个教程中,我们将提供一个集中而连贯的讨论,以便在选择如何从语言模型生成时进行关键的考虑。我们将涵盖一系列实证观察到的问题(如退化、幻觉、重复)及其在最近研究中提出的对应的算法解决方案(如顶层采样及其后继者)。然后,我们将在一个统一的视角下讨论这些算法的一个子集;大多数随机生成策略可以被构框为局部调整模型的概率以避免失败案例。最后,我们将讨论受控生成中的方法,这些方法不仅要确保连贯性,还要确保文本表现出特定的期望属性。我们希望NLP实践者和研究人员能够借助我们的教程,获得一个统一的框架,他们可以用来评估和贡献最新的语言生成研究。

成为VIP会员查看完整内容
42

相关内容

【DeepMind】结构化数据少样本学习,51页ppt
专知会员服务
32+阅读 · 2022年8月13日
【COMPTEXT2022教程】跨语言监督文本分类,41页ppt
专知会员服务
16+阅读 · 2022年6月14日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
24+阅读 · 2021年7月8日
【NAACL2021】Graph4NLP:图深度学习自然语言处理,附239页ppt
专知会员服务
105+阅读 · 2021年6月12日
【NAACL2021】长序列自然语言处理, 250页ppt
专知会员服务
61+阅读 · 2021年6月7日
【IJCAI】大规模可扩展深度学习,82页ppt
专知会员服务
26+阅读 · 2021年1月10日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
36+阅读 · 2020年6月22日
【NeurIPS 2022】扩散模型的深度平衡方法
专知
0+阅读 · 2022年11月6日
【DeepMind】结构化数据少样本学习,51页ppt
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2023年8月28日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
322+阅读 · 2023年3月31日
Arxiv
53+阅读 · 2023年3月26日
Arxiv
111+阅读 · 2023年3月24日
VIP会员
相关VIP内容
【DeepMind】结构化数据少样本学习,51页ppt
专知会员服务
32+阅读 · 2022年8月13日
【COMPTEXT2022教程】跨语言监督文本分类,41页ppt
专知会员服务
16+阅读 · 2022年6月14日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
24+阅读 · 2021年7月8日
【NAACL2021】Graph4NLP:图深度学习自然语言处理,附239页ppt
专知会员服务
105+阅读 · 2021年6月12日
【NAACL2021】长序列自然语言处理, 250页ppt
专知会员服务
61+阅读 · 2021年6月7日
【IJCAI】大规模可扩展深度学习,82页ppt
专知会员服务
26+阅读 · 2021年1月10日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
36+阅读 · 2020年6月22日
相关基金
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员