虽然变分自编码器(VAEs)代表了一个广泛的有影响力的深度生成模型,但潜在的能量函数的许多方面仍然知之甚少。特别是,一般认为高斯编码器/解码器的假设降低了VAEs生成真实样本的有效性。在这方面,我们严格地分析VAE目标,区分哪些情况下这个信念是真实的,哪些情况下不是真实的。然后我们利用相应的见解来开发一个简单的VAE增强,不需要额外的hyperparameters或敏感的调优。在数量上,这个提议产生了清晰的样本和稳定的FID分数,这些分数实际上与各种GAN模型相竞争,同时保留了原始VAE架构的理想属性。这项工作的一个简短版本将出现在ICLR 2019年会议记录(Dai和Wipf, 2019)上。我们模型的代码在这个https URL TwoStageVAE中可用。

成为VIP会员查看完整内容
36

相关内容

大多数概率模型中, 计算后验边际或准确计算归一化常数都是很困难的. 变分推断(variational inference)是一个近似计算这两者的框架. 变分推断把推断看作优化问题: 我们尝试根据某种距离度量来寻找一个与真实后验尽可能接近的分布(或者类似分布的表示).
【CMU】深度学习模型中集成优化、约束和控制,33页ppt
专知会员服务
45+阅读 · 2020年5月23日
自回归模型:PixelCNN
专知会员服务
26+阅读 · 2020年3月21日
图神经网络表达能力的研究综述,41页pdf
专知会员服务
169+阅读 · 2020年3月10日
一文读懂线性回归、岭回归和Lasso回归
CSDN
34+阅读 · 2019年10月13日
探幽深度生成模型的两种方法:VAE和GAN
AI前线
15+阅读 · 2018年3月10日
在TensorFlow中对比两大生成模型:VAE与GAN
机器之心
12+阅读 · 2017年10月23日
GAN完整理论推导、证明与实现(附代码)
数据派THU
4+阅读 · 2017年10月6日
GAN | GAN介绍(2)
KingsGarden
27+阅读 · 2017年3月14日
A Probe into Understanding GAN and VAE models
Arxiv
9+阅读 · 2018年12月13日
q-Space Novelty Detection with Variational Autoencoders
Arxiv
4+阅读 · 2018年4月10日
Arxiv
6+阅读 · 2018年3月12日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关资讯
一文读懂线性回归、岭回归和Lasso回归
CSDN
34+阅读 · 2019年10月13日
探幽深度生成模型的两种方法:VAE和GAN
AI前线
15+阅读 · 2018年3月10日
在TensorFlow中对比两大生成模型:VAE与GAN
机器之心
12+阅读 · 2017年10月23日
GAN完整理论推导、证明与实现(附代码)
数据派THU
4+阅读 · 2017年10月6日
GAN | GAN介绍(2)
KingsGarden
27+阅读 · 2017年3月14日
微信扫码咨询专知VIP会员