对话系统的进步已经革命性地改变了信息获取方式,超越了单一查询的局限性。然而,开发对话系统需要大量训练数据,这在资源匮乏的领域和语言中是一个挑战。传统的数据收集方法如众包是劳动密集型和耗时的,因此在这种情况下效率不高。数据增强(DA)是一种有效的方法,可以减轻对话系统中数据稀缺的问题。这个教程提供了一个全面且最新的数据增强方法综述,在对话系统背景下。它突出了最近在对话增强、开放领域和任务导向对话生成方面的进展,以及评估这些模型的不同范式。我们还讨论了当前的挑战和未来的方向,以帮助研究人员和从业者在这一领域进一步推进。 目录内容:

讲者:

成为VIP会员查看完整内容
44

相关内容

【KDD2023教程】用文本编辑模型的快速文本生成, 190页ppt
专知会员服务
26+阅读 · 2023年8月10日
【ACL2023教程】自然语言的复杂推理,240多页ppt
专知会员服务
54+阅读 · 2023年7月13日
【COLING2022教程】自然语言处理的不确定性估计教程
专知会员服务
29+阅读 · 2022年10月17日
【KDD2022教程】图算法公平性:方法与趋势,200页ppt
专知会员服务
41+阅读 · 2022年8月20日
【DeepMind】结构化数据少样本学习,51页ppt
专知会员服务
32+阅读 · 2022年8月13日
【干货书】神经信息检索,50页pdf
专知会员服务
24+阅读 · 2022年7月29日
【COMPTEXT2022教程】跨语言监督文本分类,41页ppt
专知会员服务
17+阅读 · 2022年6月14日
【AAMAS2022教程】多智能体分布式约束优化,235页ppt
专知会员服务
73+阅读 · 2022年5月15日
专知会员服务
45+阅读 · 2021年7月26日
【NeurIPS 2020 Tutorial】离线强化学习:从算法到挑战,80页ppt
最新《图嵌入组合优化》综述论文,40页pdf
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2023年12月31日
Arxiv
0+阅读 · 2023年12月28日
Arxiv
0+阅读 · 2023年12月27日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
147+阅读 · 2023年3月24日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【KDD2023教程】用文本编辑模型的快速文本生成, 190页ppt
专知会员服务
26+阅读 · 2023年8月10日
【ACL2023教程】自然语言的复杂推理,240多页ppt
专知会员服务
54+阅读 · 2023年7月13日
【COLING2022教程】自然语言处理的不确定性估计教程
专知会员服务
29+阅读 · 2022年10月17日
【KDD2022教程】图算法公平性:方法与趋势,200页ppt
专知会员服务
41+阅读 · 2022年8月20日
【DeepMind】结构化数据少样本学习,51页ppt
专知会员服务
32+阅读 · 2022年8月13日
【干货书】神经信息检索,50页pdf
专知会员服务
24+阅读 · 2022年7月29日
【COMPTEXT2022教程】跨语言监督文本分类,41页ppt
专知会员服务
17+阅读 · 2022年6月14日
【AAMAS2022教程】多智能体分布式约束优化,235页ppt
专知会员服务
73+阅读 · 2022年5月15日
专知会员服务
45+阅读 · 2021年7月26日
【NeurIPS 2020 Tutorial】离线强化学习:从算法到挑战,80页ppt
相关基金
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
相关论文
Arxiv
0+阅读 · 2023年12月31日
Arxiv
0+阅读 · 2023年12月28日
Arxiv
0+阅读 · 2023年12月27日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
147+阅读 · 2023年3月24日
Arxiv
21+阅读 · 2023年3月17日
微信扫码咨询专知VIP会员