统一状态的离散扩散模型因其内在的自我纠错能力,被认为具有快速文本生成的潜力。然而,实际中它们的性能通常不如自回归模型(autoregressive models)和掩码扩散模型(masked diffusion models)。本研究旨在通过一个关键洞察来缩小这一性能差距:统一状态扩散过程本质上可由底层的高斯扩散自然导出。 我们提出了一种新方法 Duo,通过将高斯扩散中的先进技术迁移到离散扩散模型中,以提升训练与采样效果。 * 首先,我们引入了一种由高斯过程指导的课程学习策略(curriculum learning),通过降低方差,将训练速度提高了一倍。采用课程学习训练的模型在 7 个基准测试中的 3 个上,其零样本困惑度(zero-shot perplexity)超过了自回归模型。 * 其次,我们提出了离散一致性蒸馏(Discrete Consistency Distillation),该方法将“连续一致性蒸馏(consistency distillation)”扩展至离散领域。这一算法实现了扩散语言模型的少步采样(few-step generation),使采样速度提高了两个数量级。

相关代码与模型检查点可在项目主页获取: 👉 https://s-sahoo.com/duo

成为VIP会员查看完整内容
5

相关内容

【NeurIPS2024】几何轨迹扩散模型
专知会员服务
24+阅读 · 2024年10月20日
【NeurIPS2023】朝向自解释的图级异常检测
专知会员服务
30+阅读 · 2023年10月26日
【NeurIPS2023】大型预训练模型的等变自适应
专知会员服务
32+阅读 · 2023年10月4日
【ICML2023】知识蒸馏对模型可解释性的影响
专知会员服务
37+阅读 · 2023年5月27日
专知会员服务
37+阅读 · 2021年6月6日
专知会员服务
38+阅读 · 2021年6月3日
专知会员服务
20+阅读 · 2021年5月30日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
57+阅读 · 2021年3月31日
【CVPR2021】跨模态检索的概率嵌入
专知会员服务
20+阅读 · 2021年3月2日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
464+阅读 · 2023年3月31日
Arxiv
76+阅读 · 2023年3月26日
Arxiv
68+阅读 · 2022年9月7日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
14+阅读 · 2018年12月6日
VIP会员
相关VIP内容
【NeurIPS2024】几何轨迹扩散模型
专知会员服务
24+阅读 · 2024年10月20日
【NeurIPS2023】朝向自解释的图级异常检测
专知会员服务
30+阅读 · 2023年10月26日
【NeurIPS2023】大型预训练模型的等变自适应
专知会员服务
32+阅读 · 2023年10月4日
【ICML2023】知识蒸馏对模型可解释性的影响
专知会员服务
37+阅读 · 2023年5月27日
专知会员服务
37+阅读 · 2021年6月6日
专知会员服务
38+阅读 · 2021年6月3日
专知会员服务
20+阅读 · 2021年5月30日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
57+阅读 · 2021年3月31日
【CVPR2021】跨模态检索的概率嵌入
专知会员服务
20+阅读 · 2021年3月2日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员