学界 | CMU新研究试图统一深度生成模型:搭建GAN和VAE之间的桥梁

2017 年 6 月 5 日 机器之心

选自arXiv

机器之心编译

参与:吴攀

不同的深度生成模型之间存在怎样的共性?近日,来自 CMU 和 Petuum 的四位研究者 Zhiting Hu、Zichao Yang、Ruslan Salakhutdinov 和邢波在 arXiv 上发表了一篇论文介绍了他们的研究成果,即构建了 GAN 和 VAE 深度生成建模方法之间的形式联系。机器之心对该研究论文进行了摘要介绍,更多详情请查阅原论文。


论文:关于统一深度生成模型(On Unifying Deep Generative Models)


论文地址:https://arxiv.org/abs/1706.00550




摘要


深度生成模型(deep generative model)近来年已经取得了令人瞩目的成功。其中,生成对抗网络(GAN)和变分自编码器(VAE)这两种强大的深度生成模型学习框架被普遍认为是两种不同的范式,并且分别都得到了广泛的独立研究。本论文通过对 GAN 和 VAE 的一种新的形式化(formulation)而构建了深度生成建模方法之间的形式联系(formal connections)。我们表明,GAN 和 VAE 本质上是分别在相反的方向上使用相反的隐含/可见处理(reversed latent/visible treatments)来最小化 KL 距离,从而延展典型的 wake-sleep 算法的两个学习阶段。这个统一的视角能提供一种强大的工具,可用于分析各种现有的模型变体,而且可以使得我们以一种基于原理的方式跨研究方向地交换思想。比如说,我们可以将 VAE 文献中的重要性加权(importance weighting)方法迁移用于提升 GAN 学习,也可使用对抗机制来增强 VAE。定量实验表明了这种导入的扩展(imported extensions)的通用性和有效性。


3 搭建不同方法之间的桥梁


在 GAN 中,生成模型的训练方式是通过将生成的样本传递到一个鉴别器,并最小化由该鉴别器所评估得到的误差。直观来看,学习上对于假样本的依赖类似于 wake-sleep 算法中的睡眠阶段(sleep phase)。相反,VAE 通过重构被观察的真实样本来训练其生成模型,这与清醒阶段(wake phase)相似。这一节对这些联系进行了形式化的探索。

为了便于本论文的呈现和构建符号标记方法,我们首先使用我们提出的形式化对对抗域适应(ADA/Adversarial Domain Adaptation)进行了新的解释。然后我们表明 GAN 是 ADA 的一种带有退化的源域(degenerated source domain)的特例,我们还通过对目标(objective)的 KL 距离解释而揭示了其与 VAE 和 wake-sleep 算法的紧密关系。表 1 列出了这些方法中每个组件的对应关系。


表 1:在我们提出的形式化方法中,不同方法之间的对应关系


  • 3.1 对抗域适应(ADA)

  • 3.2 生成对抗网络(GAN)

  • 3.3 变分自编码器(VAE)

  • 3.4 Wake-Sleep 算法(WS)


4 应用


我们通过我们提出的形式化而建立了 GAN 和 VAE 之间的紧密对应关系,这不仅能让我们更加深入地理解现有的方法,而且还能让我们从这两大类算法的交织中汲取灵感,从而开发出更强的变体。在这一节,我们通过直接从其它方法导入思想,给出了 GAN 和 VAE 各自的扩展示例。


  • 4.1 重要性加权的生成对抗网络(IWGAN/Importance Weighted GANs)

  • 4.2 对手激活的变分自编码器(AAVAE/Adversary Activated VAEs)


5 实验


表 2:左:vanilla GAN 及其重要性加权的扩展的 Inception 分数。中:class-conditional GAN 及其 IW 扩展的生成的分类准确度。右:半监督 VAE 及其对手激活的变体在 MNIST 测试集上的分类准确度,使用了不同大小的真实标注的训练样本。


图 1:在 MNIST 测试集上的下限值。X 轴表示用于学习的训练数据的比例(0.01、0.1 和 1)。Y 轴表示下限值。实线表示基础模型;虚线表示对手激活的模型。左:VAE vs. AA-VAE;中:CVAE vs. AA-CVAE;右:SVAE vs. AA-SVAE,其中剩余的训练数据被用作无监督数据。



更多有关GMIS 2017大会的内容,请点击「阅读原文」查看机器之心官网 GMIS 专题↓↓↓

登录查看更多
0

相关内容

深度生成模型基本都是以某种方式寻找并表达(多变量)数据的概率分布。有基于无向图模型(马尔可夫模型)的联合概率分布模型,另外就是基于有向图模型(贝叶斯模型)的条件概率分布。前者的模型是构建隐含层(latent)和显示层(visible)的联合概率,然后去采样。基于有向图的则是寻找latent和visible之间的条件概率分布,也就是给定一个随机采样的隐含层,模型可以生成数据。 生成模型的训练是一个非监督过程,输入只需要无标签的数据。除了可以生成数据,还可以用于半监督的学习。
专知会员服务
107+阅读 · 2020年5月21日
专知会员服务
53+阅读 · 2019年12月22日
GANs最新综述论文: 生成式对抗网络及其变种如何有用
专知会员服务
70+阅读 · 2019年10月19日
GAN新书《生成式深度学习》,Generative Deep Learning,379页pdf
专知会员服务
202+阅读 · 2019年9月30日
【综述】生成式对抗网络GAN最新进展综述
专知
57+阅读 · 2019年6月5日
CVPR 2019 | 全新缺失图像数据插补框架—CollaGAN
PaperWeekly
9+阅读 · 2019年5月5日
CMU论文解读:基于GAN和VAE的跨模态图像生成
PaperWeekly
9+阅读 · 2018年8月20日
深度 | 变分自编码器VAE面临的挑战与发展方向
机器之心
16+阅读 · 2018年3月21日
探幽深度生成模型的两种方法:VAE和GAN
AI前线
15+阅读 · 2018年3月10日
资源 | NIPS 2017 Spotlight论文Bayesian GAN的TensorFlow实现
GAN完整理论推导、证明与实现(附代码)
数据派THU
4+阅读 · 2017年10月6日
GAN | GAN介绍(1)
中国科学院网络数据重点实验室
17+阅读 · 2017年7月26日
Arxiv
4+阅读 · 2018年5月21日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
4+阅读 · 2018年4月10日
Arxiv
6+阅读 · 2018年4月4日
Arxiv
6+阅读 · 2018年3月12日
Arxiv
6+阅读 · 2018年1月29日
VIP会员
相关VIP内容
相关资讯
【综述】生成式对抗网络GAN最新进展综述
专知
57+阅读 · 2019年6月5日
CVPR 2019 | 全新缺失图像数据插补框架—CollaGAN
PaperWeekly
9+阅读 · 2019年5月5日
CMU论文解读:基于GAN和VAE的跨模态图像生成
PaperWeekly
9+阅读 · 2018年8月20日
深度 | 变分自编码器VAE面临的挑战与发展方向
机器之心
16+阅读 · 2018年3月21日
探幽深度生成模型的两种方法:VAE和GAN
AI前线
15+阅读 · 2018年3月10日
资源 | NIPS 2017 Spotlight论文Bayesian GAN的TensorFlow实现
GAN完整理论推导、证明与实现(附代码)
数据派THU
4+阅读 · 2017年10月6日
GAN | GAN介绍(1)
中国科学院网络数据重点实验室
17+阅读 · 2017年7月26日
相关论文
Arxiv
4+阅读 · 2018年5月21日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
4+阅读 · 2018年4月10日
Arxiv
6+阅读 · 2018年4月4日
Arxiv
6+阅读 · 2018年3月12日
Arxiv
6+阅读 · 2018年1月29日
Top
微信扫码咨询专知VIP会员