【深度】DeepMind高级研究员:重新理解GAN,最新算法、技巧及应用(59页PPT)

2018 年 2 月 8 日 GAN生成式对抗网络






来源:新智元

  作者:Balaji Lakshminarayanan


【导读】本文是DeepMind高级研究科学家Balaji Lakshminarayanan在SF AI Meetup上演讲的slides,总结了他以及 Ian Goodfellow,Shakir Mohamed, Mihaela Rosca等人最新的GAN工作。


PPT下载:http://www.gatsby.ucl.ac.uk/~balaji/Understanding-GANs.pdf



《理解生成对抗网络》

包括以下内容:

  • GAN与概率机器学习中的其他方法有哪些联系?

  • 如何比较分布?

  • 生成模型与算法

  • 如何结合VAE和GAN来获得更好的结果?

  • 缩小理论与实践之间的差距

  • 其他一些有趣的研究方向和应用



问题陈述:


一个生成模型

我们的目标是:从真实分布给定样本,找到 θ



GAN概述

鉴别器(Discriminator):训练一个分类器,使用样本区分两个分布

生成器(Generator):生成愚弄鉴别器的样本

Minimax game:在训练鉴别器和生成器之间交替

  • 对应JS散度的最小值的纳什均衡

  • 在实践中为了稳定训练需要一些技巧



GAN的各种变体非常多


GAN与概率机器学习中的其他方法有哪些联系?



隐式模型:生成数据的随机过程

规定模型:提供有关观察的概率的知识,并指定一个条件对数似然函数。



通过比较学习:使用样本比较估计分布与真实分布


定义一个联合损失函数,并在Comparison loss和Generative loss间交替

如何比较分布?

以下介绍了四种方法,包括:

  • 类概率估计

  • 散度最小化(f-GAN)

  • 密度比估计

  • 时矩匹配


如何比较分布?——方法小结


类概率估计 

  • 建立一个分类器来区分真实样本和真实样本

  • 原始的GAN解决方案


密度比匹配 

  • 直接将真实比率与估计值之间的预期误差最小化


散度最小化 

  • 最小化真实密度 p* 和乘积 r(x)q(x) 之间的广义散度

  • f-GAN方法


时矩匹配(Moment matching)

  • 匹配 p* 和 r(x)q(x) 的时矩 

  • MMD,最优传输( optimal transport),等


如何学习生成器?

在GAN中,生成器是可微分的 

  • 生成器loss有以下几种形式,例如:f-散度  D_f = E_q [f(r)]

  • 可以利用再参数化的技巧



小结:在隐式生成模型中学习


密度比估计 

  • 但它们不专注于学习生成器 


近似贝叶斯计算(ABC)和likelihood-free 推理 

  • 低维,理论更好理解

  • 对参数的贝叶斯推断 

  • 模拟器通常是不可微分的

生成模型与算法


对一个固定模型,比较其推理算法

  1. 用最大似然估计(MLE)训练 

  2. 通过Wasserstein GAN训练生成器

  3. 比较



小结:

  • Wasserstein距离可以比较模型。 

  • 通过训练critic可以近似估计Wasserstein距离。 

  • 通过WGAN进行训练能得到更好的样本,但对数概率显著更差。

  • 通过WGAN训练的Latent code是非高斯的。



如何结合VAE和GAN来获得更好的结果?


 Mode collapse问题:

  •  “Unrolled GAN”论文中的MoG toy 的例子

  • VAE还有其他问题,但不会遭到Mode collapse



将自动编码器添加到GAN,及与VAE中Evidence Lower Bound (ELOB)的关系


评估不同的变体

我们的VAE-GAN的混合模型可与state-of-the-art的GANs相媲美


小结:VAEs和GANs

VAE:

  • 变分推理:重构;编码器网络

  • 后期的latent与先前的匹配


GAN:

  • 隐式解码器

  • 可以使用隐式编码器:用于匹配分布的鉴别器


缩小理论与实践之间的差距




GAN理论与实践的区别


已经有许多新的GAN变体被提出(例如Wasserstein GAN) 

  • 由新理论激发的损失函数和正则化项

  • 理论与实践之间的有显着区别


如何弥补这个差距?

  • 理论预测失败的综合数据集

  • 将新的正规化项添加到原始non-saturating GAN



Jensen Shannon divergence失败时的合成数据集比较 

  • Gradient penalty能得到更好的表现



在真实数据集上的结果


小结:

一些令人惊讶的发现: 

  • 梯度惩罚(gradient penalty)也能稳定(非Wasserstein的)GAN 

  • 不仅要考虑理想的损失函数,还要考虑优化



其他一些有趣的研究方向:




GAN用于模仿学习

  • 使用一个单独的网络(鉴别器)来“学习”现实的动作

  • 对抗模仿学习:RL奖励来自鉴别器


研究:

  • 利用纳什均衡收敛的想法

  • 与RL(actor-critic方法)的联系

  • 控制理论


应用:

  • Class-conditional生成

  • 文本-图像生成

  • 图像-图像转换

  • 单图像超分辨率

  • 域适应

小结:

稳定GAN训练的方法 

  • 结合自动编码器

  • 梯度惩罚


GAN文献中一些有用的工具:

  • 密度比(density ratio)的技巧在其他领域也很有用(例如信息传递)

  • 隐式变分逼近

  • 学习一个现实的损失函数

  • 如何处理不可微分的模拟器?——使用可微分近似进行搜索?



高质量延伸阅读

【征稿通知】IEEE IV 2018“智能车辆中的平行视觉”研讨会

【学界】基于平行视觉的特定场景下行人检测

【学界】ParallelEye:面向交通视觉研究构建的大规模虚拟图像集

【CFP】Virtual Images for Visual Artificial Intelligence

【最详尽的GAN介绍】王飞跃等:生成式对抗网络 GAN 的研究进展与展望

【智能自动化学科前沿讲习班第1期】王飞跃教授:生成式对抗网络GAN的研究进展与展望

【智能自动化学科前沿讲习班第1期】王坤峰副研究员:GAN与平行视觉

【重磅】平行将成为一种常态:从SimGAN获得CVPR 2017最佳论文奖说起

【平行讲坛】平行图像:图像生成的一个新型理论框架

【学界】密歇根大学联合谷歌大脑提出,通过「推断语义布局」实现「文本到图像合成」

【Hinton】人类就是机器,绝妙的机器

【学界】AI算法透明不是必须,黑箱和可解释性可简化为优化问题

【学界】用生成对抗网络解决NLP问题:谷歌大脑提出MaskGAN

【计算机视觉必读干货】图像分类、定位、检测,语义分割和实例分割方法梳理

登录查看更多
2

相关内容

GAN:生成性对抗网,深度学习模型的一种,在神经网络模型中引入竞争机制,非常流行。
最新《生成式对抗网络》简介,25页ppt
专知会员服务
173+阅读 · 2020年6月28日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
179+阅读 · 2020年5月29日
少标签数据学习,54页ppt
专知会员服务
198+阅读 · 2020年5月22日
Yann Lecun 纽约大学《深度学习(PyTorch)》课程(2020)PPT
专知会员服务
179+阅读 · 2020年3月16日
【干货51页PPT】深度学习理论理解探索
专知会员服务
62+阅读 · 2019年12月24日
【学界】DeepMind论文:深度压缩感知,新框架提升GAN性能
GAN生成式对抗网络
14+阅读 · 2019年5月23日
DeepMind论文:深度压缩感知,新框架提升GAN性能
极市平台
4+阅读 · 2019年5月23日
从动力学角度看优化算法:GAN的第三个阶段
PaperWeekly
11+阅读 · 2019年5月13日
在TensorFlow中对比两大生成模型:VAE与GAN
机器之心
12+阅读 · 2017年10月23日
GAN | GAN介绍(2)
中国科学院网络数据重点实验室
43+阅读 · 2017年8月4日
Arxiv
15+阅读 · 2020年2月6日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
Arxiv
8+阅读 · 2019年2月15日
A Probe into Understanding GAN and VAE models
Arxiv
9+阅读 · 2018年12月13日
Arxiv
5+阅读 · 2018年5月21日
Arxiv
4+阅读 · 2018年3月23日
VIP会员
相关资讯
【学界】DeepMind论文:深度压缩感知,新框架提升GAN性能
GAN生成式对抗网络
14+阅读 · 2019年5月23日
DeepMind论文:深度压缩感知,新框架提升GAN性能
极市平台
4+阅读 · 2019年5月23日
从动力学角度看优化算法:GAN的第三个阶段
PaperWeekly
11+阅读 · 2019年5月13日
在TensorFlow中对比两大生成模型:VAE与GAN
机器之心
12+阅读 · 2017年10月23日
GAN | GAN介绍(2)
中国科学院网络数据重点实验室
43+阅读 · 2017年8月4日
相关论文
Top
微信扫码咨询专知VIP会员