Score-based diffusion models synthesize samples by reversing a stochastic process that diffuses data to noise, and are trained by minimizing a weighted combination of score matching losses. The log-likelihood of score-based diffusion models can be tractably computed through a connection to continuous normalizing flows, but log-likelihood is not directly optimized by the weighted combination of score matching losses. We show that for a specific weighting scheme, the objective upper bounds the negative log-likelihood, thus enabling approximate maximum likelihood training of score-based diffusion models. We empirically observe that maximum likelihood training consistently improves the likelihood of score-based diffusion models across multiple datasets, stochastic processes, and model architectures. Our best models achieve negative log-likelihoods of 2.83 and 3.76 bits/dim on CIFAR-10 and ImageNet 32x32 without any data augmentation, on a par with state-of-the-art autoregressive models on these tasks.


翻译:基于分数的传播模型通过扭转将数据分散到噪音的随机过程来合成样本,并通过尽量减少分数匹配损失的加权组合进行培训。基于分数的传播模型的日志相似性可以通过与连续的正常流连接来简单计算,但以分数匹配损失的加权组合并不能直接优化日志相似性。我们显示,对于具体的加权计划,目标的上限为负日志相似性,从而能够对基于分数的传播模型进行大约最大可能的培训。我们从经验上看到,最有可能的培训不断提高基于分数的传播模型跨越多个数据集、随机进程和模型结构的可能性。我们的最佳模型在CIFAR-10和图像网络32x32上实现了2.83和3.76位/位的负日志相似性,而没有数据增强,与这些任务上的最新自动递增模型相当。

0
下载
关闭预览

相关内容

NeurIPS 2021 | 寻MixTraining: 一种全新的物体检测训练范式
专知会员服务
12+阅读 · 2021年12月9日
专知会员服务
26+阅读 · 2021年4月2日
【ACL2020】端到端语音翻译的课程预训练
专知会员服务
6+阅读 · 2020年7月2日
已删除
将门创投
7+阅读 · 2019年10月10日
Arxiv
0+阅读 · 2021年12月16日
Arxiv
6+阅读 · 2019年3月19日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
3+阅读 · 2018年4月9日
VIP会员
相关VIP内容
NeurIPS 2021 | 寻MixTraining: 一种全新的物体检测训练范式
专知会员服务
12+阅读 · 2021年12月9日
专知会员服务
26+阅读 · 2021年4月2日
【ACL2020】端到端语音翻译的课程预训练
专知会员服务
6+阅读 · 2020年7月2日
相关资讯
Top
微信扫码咨询专知VIP会员