生成扩散模型漫谈:最优扩散方差估计(下)

2022 年 10 月 10 日 PaperWeekly


©PaperWeekly 原创 · 作者 | 苏剑林
单位 | 追一科技
研究方向 | NLP、神经网络


在上一篇文章《生成扩散模型漫谈:最优扩散方差估计(上)》中,我们介绍并推导了 Analytic-DPM 中的扩散模型最优方差估计结果,它是直接给出了已经训练好的生成扩散模型的最优方差的一个解析估计,实验显示该估计结果确实能有效提高扩散模型的生成质量。

这篇文章我们继续介绍 Analytic-DPM 的升级版,出自同一作者团队的论文《Estimating the Optimal Covariance with Imperfect Mean in Diffusion Probabilistic Models》[1],在官方 Github 中被称为“Extended-Analytic-DPM”,下面我们也用这个称呼。




结果回顾

上一篇文章是在 DDIM 的基础上,推出 DDIM 的生成过程最优方差应该是



其中 是分布 的方差,它有如下的估计结果(这里取“方差估计2”的结果):



事后来看,其实估计思路也不算难,假设



已经准确预测了分布 的均值向量,那么根据定义可以得到协方差为



两端对 求平均,以消除对 的依赖



最后,对角线元素取平均,使其变为一个标量(或者说协方差是单位阵的倍数),即 ,便可得到估计式(2)。




如何改进

在正式介绍 Extended-Analytic-DPM 之前,我们可以先想想,Analytic-DPM 还有什么改进空间?

其实稍加思考就可以发现很多,比如 Analytic-DPM 假设用来逼近 的正态分布协方差矩阵设计为为 ,即对角线元素相同的对角阵,那么一个直接的改进就是允许对角线元素互不相同了,即   ,这里约定向量的乘法都是基于 Hadamard 积进行,比如 。对应的结果就是只考虑 的对角线部分,所以从式(5)出发,可以得到相应的估计是
其中 维全 1 向量。还有一个更进一步的改进是保留 的依赖关系,即考虑 ,这就跟 类似,需要用一个以 为输入的模型来学习它。
那么可不可以考虑完整的 呢?理论上可以,实际上基本不可行,因为完整的 是一个 矩阵,对于图片场景来说, 是图片的总像素个数,即便是对于 cifar10 来说也已经有 了,更不用说更高分辨率的图片。所以结合实验背景, 矩阵在储存和计算上的成本都过大了。
除此之外,可能有一个问题不少读者都没意识到,就是前面的解析解推导都依赖于 ,事实上 是由模型学习出来的,它未必能够精确等于均值 ,这就是 Extended-Analytic-DPM 的论文标题所提到的 Imperfect Mean 的含义。如果在 Imperfect Mean 下改进估计结果,更加有实践意义。




最大似然
假设均值模型 已经事先训练好,那么待定分布 的参数就只剩下了 ,对应的负对数似然为



可以解得取最小值正好由



它的特点是 未必是准确的均值结果,因此式(4)的第二个等号不成立,只能成立第一个等号。将式(3)代入,得到



当然,这里只分析了协方差矩阵为 的简单情形,我们也可以考虑更一般的对角阵协方差,即 ,对应的结果是





条件方差
如果想要得到带条件 的协方差 ,那么就相当于每个分量独立计算,结果是免除了 这一步平均:



其中 。跟上一篇文章一样,利用

得到



这就是 Extended-Analytic-DPM 中学习条件方差的 “NPR-DPM” 方案。另外,原论文还提了个 “SN-DPM” 方案,它是基于 Perfect Mean 假设而不是 Imperfect Mean 的。然而论文的实验结果却是 SN-DPM 要优于 NPR-DPM,也就是说论文号称自己在解决 Imperfect Mean 问题,结果实验显示 Perfect Mean 假设的方案更好,这就反过来说明 Perfect Mean 假设其实很贴合实践情况,换句话说 Imperfect Mean 问题可以视为不存在了。




两个阶段

可能读者有疑问,一开始不是说《Improved Denoising Diffusion Probabilistic Models》[2] 的可学习方差增加了训练难度吗?那 Extended-Analytic-DPM 为啥又重新去做可训练的方差模型呢?

我们知道,DDPM 提供了方差的两种方案 ,这两种简单方案的效果其实已经相当不错了。这侧面说明,更精细地调整方差对生成结果的影响不大(至少对于完整的 步扩散是这样),主要的还是 的学习,方差只是“锦上添花”的作用。如果将方差视为可学习参数或者模型,跟均值模型 一同学习,那么随着训练过程变化的方差就会严重干扰均值模型 的学习过程,违反了“ 为主、方差为辅”的原则。
Extended-Analytic-DPM 的聪明之处在于,它提出了两阶段的训练方案,即用原始固定方差的测试训练好均值模型 ,然后固定该模型,并重用该模型的大部分参数来学一个方差模型,这样一来反而“一举三得”:
一、降低了参数量和训练成本;
二、允许重用已经训练好的均值模型;
三、训练过程更加稳定。




个人思考

到这里,Extended-Analytic-DPM 的介绍就基本完成了。有心的读者可能会感觉到,如果说上一篇 Analytic-DPM 的结果给人“惊艳”之感,那么这一篇 Extended-Analytic-DPM 就显得中规中矩,没什么太动人心弦的地方。可以说,Extended-Analytic-DPM 就是 Analytic-DPM 的平凡推广,尽管实验结果显示它还是能带来不错的提升,但总体而言给人的感觉就是很平淡了。当然,大体上是因为 Analytic-DPM “珠玉在前”,对比之下才显得它暗淡一些,本身也算是一篇比较扎实的工作。

此外,前面我们已经提到,实验结果显示,基于 Perfect Mean 假设的 SN-DPM,效果要比基于 Imperfect Mean 假设的 NPR-DPM 要好,同时这一结果也使得原论文的标题有点“名不副实”了——既然实验显示 Perfect Mean 假设的方案更好,反过来意味着 Imperfect Mean 问题可以视为不存在了。原论文并没有对此结果做进一步的分析和评价,笔者想会不会跟方差估计的有偏性有关?大家知道,直接用 “除以 ” 的公式去估计方差是有偏的,而 NPR-DPM 正是基于它来操作的,相比之下 SN-DPM 则是直接取估计二阶矩,二阶矩的估计是无偏的。总感觉有点道理,但也不能完全说通,有点迷~
最后,不知道读者会不会跟笔者一样有个疑问:在给定 的前提下,为什么不直接用像式(7)的负对数似然为损失函数来学习方差,而是要重新设计 NPR-DPM 或 SN-DPM 这两种 MSE 形式的 loss?MSE 形式的 loss 有什么特别的好处吗?笔者暂时也没想到答案。




文章小结
本文介绍了论文 Analytic-DPM 的升级版——“Extended-Analytic-DPM”中的扩散模型最优方差估计结果,它主要针对不完美均值情形进行了推导,并提出了有条件方差的学习方案。


参考文献

[1] https://arxiv.org/abs/2206.07309

[2] https://arxiv.org/abs/2006.11239



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编




🔍

现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧

·


登录查看更多
0

相关内容

直接分子构象生成
专知会员服务
8+阅读 · 2022年11月7日
【NeurIPS 2022】扩散模型的深度平衡方法
专知会员服务
39+阅读 · 2022年11月5日
【Yoshua Bengio】生成式流网络,Generative Flow Networks
专知会员服务
31+阅读 · 2022年3月19日
WWW2022 | 迷途知返:分布迁移下的图神经网络自训练方法
专知会员服务
16+阅读 · 2022年2月19日
【干货书】面向工程师的随机过程,448页pdf
专知会员服务
79+阅读 · 2021年11月3日
【哈佛经典书】概率论与随机过程及其应用,382页pdf
专知会员服务
61+阅读 · 2020年11月14日
生成扩散模型漫谈:统一扩散模型(应用篇)
PaperWeekly
0+阅读 · 2022年11月19日
生成扩散模型漫谈:统一扩散模型(理论篇)
PaperWeekly
1+阅读 · 2022年11月6日
生成扩散模型漫谈:条件控制生成结果
PaperWeekly
0+阅读 · 2022年10月26日
生成扩散模型漫谈:最优扩散方差估计(上)
PaperWeekly
0+阅读 · 2022年9月25日
生成扩散模型漫谈:一般框架之ODE篇
PaperWeekly
1+阅读 · 2022年9月1日
生成扩散模型漫谈:一般框架之SDE篇
PaperWeekly
0+阅读 · 2022年8月14日
生成扩散模型漫谈:DDIM = 高观点DDPM
PaperWeekly
5+阅读 · 2022年8月4日
生成扩散模型漫谈:DDPM = 贝叶斯 + 去噪
PaperWeekly
1+阅读 · 2022年7月24日
生成扩散模型漫谈:DDPM = 自回归式VAE
PaperWeekly
2+阅读 · 2022年7月10日
生成扩散模型漫谈:DDPM = 拆楼 + 建楼
PaperWeekly
1+阅读 · 2022年6月19日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年11月28日
Arxiv
0+阅读 · 2022年11月28日
Arxiv
0+阅读 · 2022年11月28日
Arxiv
14+阅读 · 2022年8月25日
VIP会员
相关VIP内容
直接分子构象生成
专知会员服务
8+阅读 · 2022年11月7日
【NeurIPS 2022】扩散模型的深度平衡方法
专知会员服务
39+阅读 · 2022年11月5日
【Yoshua Bengio】生成式流网络,Generative Flow Networks
专知会员服务
31+阅读 · 2022年3月19日
WWW2022 | 迷途知返:分布迁移下的图神经网络自训练方法
专知会员服务
16+阅读 · 2022年2月19日
【干货书】面向工程师的随机过程,448页pdf
专知会员服务
79+阅读 · 2021年11月3日
【哈佛经典书】概率论与随机过程及其应用,382页pdf
专知会员服务
61+阅读 · 2020年11月14日
相关资讯
生成扩散模型漫谈:统一扩散模型(应用篇)
PaperWeekly
0+阅读 · 2022年11月19日
生成扩散模型漫谈:统一扩散模型(理论篇)
PaperWeekly
1+阅读 · 2022年11月6日
生成扩散模型漫谈:条件控制生成结果
PaperWeekly
0+阅读 · 2022年10月26日
生成扩散模型漫谈:最优扩散方差估计(上)
PaperWeekly
0+阅读 · 2022年9月25日
生成扩散模型漫谈:一般框架之ODE篇
PaperWeekly
1+阅读 · 2022年9月1日
生成扩散模型漫谈:一般框架之SDE篇
PaperWeekly
0+阅读 · 2022年8月14日
生成扩散模型漫谈:DDIM = 高观点DDPM
PaperWeekly
5+阅读 · 2022年8月4日
生成扩散模型漫谈:DDPM = 贝叶斯 + 去噪
PaperWeekly
1+阅读 · 2022年7月24日
生成扩散模型漫谈:DDPM = 自回归式VAE
PaperWeekly
2+阅读 · 2022年7月10日
生成扩散模型漫谈:DDPM = 拆楼 + 建楼
PaperWeekly
1+阅读 · 2022年6月19日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员