近期,文本编辑模型已成为单语文本生成任务的重要替代,如语法错误修正、文本简化和风格转换。这些任务有一个共同的特点 - 它们在源文本和目标文本之间显示出大量的文本重叠。

文本编辑模型利用这一观察结果,学习通过预测对源序列应用的编辑操作来生成输出。相比之下,seq2seq模型从头开始逐词生成输出,这使得它们在推理时很慢。文本编辑模型相对于seq2seq模型提供了若干优势,包括更快的推理速度、更高的样本效率,以及更好的输出控制和解释性。

本教程提供了基于文本编辑的模型和当前最先进方法的全面概述,并分析了它们的优缺点。我们讨论了与部署相关的挑战,以及这些模型如何有助于减轻幻觉和偏见,这两个都是文本生成领域的迫切挑战。 目录内容:

讲者:

成为VIP会员查看完整内容
24

相关内容

【ACL2023教程】自然语言的复杂推理,240多页ppt
专知会员服务
52+阅读 · 2023年7月13日
【COMPTEXT2022教程】跨语言监督文本分类,41页ppt
专知会员服务
16+阅读 · 2022年6月14日
【AAMAS2022教程】多智能体分布式约束优化,235页ppt
专知会员服务
73+阅读 · 2022年5月15日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
106+阅读 · 2020年12月19日
【视频】几何数据嵌入表示学习,74页ppt
专知会员服务
32+阅读 · 2020年7月24日
【DeepMind】结构化数据少样本学习,51页ppt
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2023年9月26日
Arxiv
0+阅读 · 2023年9月25日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
322+阅读 · 2023年3月31日
VIP会员
相关基金
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员