生成扩散模型漫谈:统一扩散模型(理论篇)

2022 年 11 月 6 日 PaperWeekly

©PaperWeekly 原创 · 作者 | 苏剑林
单位 | 追一科技
研究方向 | NLP、神经网络


老读者也许会发现,相比之前的更新频率,这篇文章可谓是“姗姗来迟”,因为这篇文章“想得太多”了。
通过前面九篇文章,我们已经对生成扩散模型做了一个相对全面的介绍。虽然理论内容很多,但我们可以发现,前面介绍的扩散模型处理的都是连续型对象,并且都是基于正态噪声来构建前向过程。而“想得太多”的本文,则希望能够构建一个能突破以上限制的扩散模型统一框架(Unified Diffusion Model,UDM):
1、不限对象类型(可以是连续型 ,也可以是离散型的

2、不限前向过程(可以用加噪、模糊、遮掩、删减等各种变换构建前向过程);

3、不限时间类型(可以是离散型的 ,也可以是连续型的 );

4、包含已有结果(可以推出前面的 DDPM、DDIM、SDE、ODE 等结果)。

这是不是太过“异想天开”了?有没有那么理想的框架?本文就来尝试一下。



前向过程

从前面的一系列介绍中,我们知道构建一个扩散模型包含“前向过程”、“反向过程”、“训练目标”三个部分,这一节我们来分析“前向过程”。

在最初的 DDPM 中,我们是通过 来描述前向过程的;后来,随着 DDIM 等工作的发表,我们逐渐意识到,扩散模型的训练目标和生成过程,都跟 没直接联系,反而跟 的联系更为直接,而从 推导 往往也比较困难。因此,一个更为实用的操作就是直接以 为出发点,也就是将 视为前向过程。
的最直接作用,就是用来构建扩散模型的训练数据,因此 的最基本要求是便于采样。为此,我们可以通过重参数
其中 是关于 的确定性函数, 是采样自某个标准分布 的随机变量,常见选择是标准正态分布,但其他分布通常也是可行的。可以想像,该形式包含了足够丰富的 的变换,它对 的数据类型也没有约束。一般情况下,唯一的限制是 越小, 所包含的 的信息越完整,换言之用 重构 越容易,反之 t 越大重构就越困难,直到某个上界 时, 所包含的 的信息几乎消失,重构几乎不能完成。



反向过程

扩散模型的反向过程是通过多步迭代来逐渐生成逼真的数据,其关键就是概率分布 。一般地,我们有

如果 是离散型数据,将积分改为求和即可。 的基本要求也是便于采样,所以我们要求 也要便于采样,这样一来,我们就可以通过下述流程完成 的采样:

从这个分解来看,每一步 的采样,实际上包含了两个子步骤:
1、预估:由 做一个简单的“预估”;
2、修正:由 整合预估结果,将估值推前一小步。
所以,扩散模型的反向过程就是一个反复的“预估-修正”过程,通过不断地整合 的预估结果,得到逐步推进的修正序列 ,将原本难以一步到位的生成分解为了多个步骤来完成。



训练目标
当然,目前的反向过程还只是“纸上谈兵”,因为对于 我们还一无所知。这一节我们先来讨论
很明显, 就是用 来预测 的概率模型,我们需要用一个“方便采样且容易计算”的分布去估计它。当 是连续型数据时,我们的选择并不多,通常就是均值可训练的正态分布

为了降低训练难度,我们一般不将方差 视为可训练参数,而是用《生成扩散模型漫谈:最优扩散方差估计(上)》的方式去事后估计它。另一方面,当 是离散型数据时,我们可以用自回归或者非自回归的语言模型(Seq2Seq)来建模,离散型的概率建模和采样相对来说都更加容易些。
有了近似分布 的具体形式后,训练目标就很简单了,比较自然的选择是交叉熵:

这就解决了 的估计和训练目标的设计问题。如果 是式(4)的标准正态分布,那么省去常数后的结果就是


条件概率
现在就剩下 了,它是给定 来预测 的概率。这个概率分布也有一定的设计空间,但前提是满足边缘分布的恒等式
很显然,满足这个等式的一个最简单选择是直接取
即让 无关。这样的扩散模型,可以由下面两个图描述(以 为例):

▲ 前向过程和训练目标示意图

▲ 最简单选择下的反向过程

这个极简的选择在理论上没有问题,然而实际上的效果通常不会太好,因此此时 完全依赖于 ,而 本来代表的是原始真实样本,在反向过程中我们则只能通过近似分布 来近似采样,而 通常是不够准确的,因此误差会持续累积。另外, 在采样过程中会带有噪声,这个噪声可能会严重破坏刚刚预估出来的 信息,从而使得生成效果变差。
不过很幸运,大多数情况下,我们都可以基于 这个简单的选择来衍生出一个新的结果。根据式(1),我们知道
假定 关于 是可逆的,那么可以解出 ,此时可以用解出来的这个 替换掉 中的 ,得到
这就相当于
是一个同时依赖于 设计, 分摊了 的部分依赖,并且消除了噪声,使得每一步生成的“进展”可以稳定地累积下来,因此用这个设计的反向过程往往有更好的效果。
此外,如果是 是标准正态分布,那么还可以得到更一般的结果,因为由正态分布的叠加性,我们可以得到

这样一来,由 解出来的 可以只用来替换 中的一个,最终得到的 的采样过程就是




思考分析

至此,统一扩散模型 UDM 的理论框架已经构建完毕,下一篇文章我们会通过一些具体例子介绍如何从 UDM 框架推出已有的扩散模型结果,以及进一步得到一些新的结果,这一节我们来对全文的推理做一个思考分析。

看完全文,相信不少读者是比较懵的,因为本文的结果是建立在笔者前面对扩散模型的所有理解基础上总结出来的一个统一框架,总体的技术不算很难,但是逻辑上并不容易捋清楚。首先,本文的目标是“设计一个统一的扩散模型理论框架”,这个框架能够完成本文开头罗列出来的目标。“设计”的关键是把握住“自由”和“约束”,有一些部分是可以灵活选择的,有一些部分则是带有约束的,不能乱来的。

如果读者已经对现有生成扩散模型比较熟悉,想必就能领悟到扩散模型的本质思想就是“从破坏中学习建设”,因此“破坏”的方式理论上是可以随意选择的,“建设”则是需要学习的。当然,“破坏”的方式实际上也不是毫无约束,一般来说必须是“渐进式破坏”,这样我们才能学会“渐进式建设”。这样一来,我们就构建了式(1)的破坏过程(前向过程), 用来描述破坏的进度, 可以用来表示任意破坏方式,对原始数据 也没有特别限制,至于 则用来描述破坏过程中可能存在的随机因素。这样,我们就建立了一个最一般的破坏过程。
至于建设,我们首先给出了分解式(2),这是概率论本身给出的一个恒等式,我们可以将它理解为一个约束,也可以理解为是一个引导。怎么知道要往式(2)想呢?事后来看,前向过程是一个 的过程,所以反向过程就应该尽量与 联系起来,因此能联想到式(2)。
分解式(2)包含两个部分,其中 已经很明确了,就是用 来预测 的概率,这个部分显然已经没有什么化简空间了,只能直接用模型来建模;另一部分 则是属于“自由设计”的范畴,它要求的话便于采样,其中的“约束”则是由一个恒等式(7),这也是概率论本身给出的。至于后面的在这个约束之下去设计 的过程,确实有些技巧性,这部分没有什么捷径,笔者也是结合已有的扩散模型工作思考了很久,才把这个过程捋清楚的。
总的来说,设计一个模型的时候,要时刻知道自己要什么(“自由”),这个想要的东西有什么限制(“约束”),在明确“自由”与“约束”的前提下,尽量借鉴已有的工作和所学的理论基础,不断往目标凑近。



文章小结

本文构建了一个新的扩散模型理论框架(Unified Diffusion Model,UDM),理论上它能够包含现有的生活扩散模型结果,并且允许更一般的扩散方式和数据类型。具体的例子我们下一篇文章再介绍。


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编




🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·

登录查看更多
1

相关内容

扩散模型是近年来快速发展并得到广泛关注的生成模型。它通过一系列的加噪和去噪过程,在复杂的图像分布和高斯分布之间建立联系,使得模型最终能将随机采样的高斯噪声逐步去噪得到一张图像。
直接分子构象生成
专知会员服务
8+阅读 · 2022年11月7日
详解扩散模型:从DDPM到稳定扩散,附Slides与视频
专知会员服务
77+阅读 · 2022年10月9日
粗粒化分子构象生成
专知会员服务
9+阅读 · 2022年9月18日
【NeurIPS 2021】基于潜在空间能量模型的可控和组分生成
专知会员服务
15+阅读 · 2021年10月23日
生成扩散模型漫谈:统一扩散模型(应用篇)
PaperWeekly
0+阅读 · 2022年11月19日
生成扩散模型漫谈:条件控制生成结果
PaperWeekly
0+阅读 · 2022年10月26日
生成扩散模型漫谈:最优扩散方差估计(下)
PaperWeekly
0+阅读 · 2022年10月10日
生成扩散模型漫谈:最优扩散方差估计(上)
PaperWeekly
0+阅读 · 2022年9月25日
生成扩散模型漫谈:一般框架之ODE篇
PaperWeekly
0+阅读 · 2022年9月1日
生成扩散模型漫谈:一般框架之SDE篇
PaperWeekly
0+阅读 · 2022年8月14日
生成扩散模型漫谈:DDIM = 高观点DDPM
PaperWeekly
5+阅读 · 2022年8月4日
生成扩散模型漫谈:DDPM = 贝叶斯 + 去噪
PaperWeekly
1+阅读 · 2022年7月24日
生成扩散模型漫谈:DDPM = 自回归式VAE
PaperWeekly
2+阅读 · 2022年7月10日
生成扩散模型漫谈:DDPM = 拆楼 + 建楼
PaperWeekly
1+阅读 · 2022年6月19日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
5+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
44+阅读 · 2022年9月6日
Arxiv
24+阅读 · 2022年1月3日
Arxiv
15+阅读 · 2019年6月25日
A Comprehensive Survey on Graph Neural Networks
Arxiv
13+阅读 · 2019年3月10日
Arxiv
135+阅读 · 2018年10月8日
VIP会员
相关资讯
生成扩散模型漫谈:统一扩散模型(应用篇)
PaperWeekly
0+阅读 · 2022年11月19日
生成扩散模型漫谈:条件控制生成结果
PaperWeekly
0+阅读 · 2022年10月26日
生成扩散模型漫谈:最优扩散方差估计(下)
PaperWeekly
0+阅读 · 2022年10月10日
生成扩散模型漫谈:最优扩散方差估计(上)
PaperWeekly
0+阅读 · 2022年9月25日
生成扩散模型漫谈:一般框架之ODE篇
PaperWeekly
0+阅读 · 2022年9月1日
生成扩散模型漫谈:一般框架之SDE篇
PaperWeekly
0+阅读 · 2022年8月14日
生成扩散模型漫谈:DDIM = 高观点DDPM
PaperWeekly
5+阅读 · 2022年8月4日
生成扩散模型漫谈:DDPM = 贝叶斯 + 去噪
PaperWeekly
1+阅读 · 2022年7月24日
生成扩散模型漫谈:DDPM = 自回归式VAE
PaperWeekly
2+阅读 · 2022年7月10日
生成扩散模型漫谈:DDPM = 拆楼 + 建楼
PaperWeekly
1+阅读 · 2022年6月19日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
5+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
44+阅读 · 2022年9月6日
Arxiv
24+阅读 · 2022年1月3日
Arxiv
15+阅读 · 2019年6月25日
A Comprehensive Survey on Graph Neural Networks
Arxiv
13+阅读 · 2019年3月10日
Arxiv
135+阅读 · 2018年10月8日
Top
微信扫码咨询专知VIP会员