BigGAN被干了!DeepMind发布LOGAN:FID提升32%,华人一作领衔

2019 年 12 月 5 日 量子位
鱼羊 发自 凹非寺
量子位 报道 | 公众号 QbitAI

上看,下看,左看,右看。从各个角度看美食,真是让人越看越饿。

而有个不知道是好消息还是坏消息的事实是:这些食物从未真实存在过。

不错,这是DeepMind最新推出的LOGAN生成的“伪美食图鉴”。

这只GAN初登场就击败了“史上最强”的BigGAN,成为新的state-of-the-art,还把FID和IS分别提高了32%17%

什么概念?简而言之,就是LOGAN可以生成更高质量更多样化的伪照片。

左边是BigGAN(FID/IS:5.04/126.8),右边是LOGAN(FID/IS:5.09/217)。

同样的低FID条件下,LOGAN可比BigGAN靠谱多了。

左边是BigGAN,右边是LOGAN

而不考虑FID,在相似的高IS条件下,虽然生成的食物都一样真实,且热量爆炸,但显然LOGAN的姿势水平会更加丰富。

并且,DeepMind表示:无需引入任何架构变化或其他参数。

潜在优化

DeepMind采用的方法,是引入了一种受CSGAN启发的潜在优化(latent optimisation)。

首先,让潜在变量z,通过生成器和判别器进行前向传播。

然后,用生成器损失(红色虚线箭头)的梯度来计算改进的z’。

在第二次前向传播中,使用优化后的z’。其后,引入潜在优化计算判别器的梯度。

最后,用这些梯度来更新模型。

这一方法的核心,其实是加强判别器和生成器之间的交互来改善对抗性

GAN中基于梯度的优化存在的一个重要问题是,判别器和生成器的损失产生的矢量场不是梯度矢量场。因此,不能保证梯度下降会找到局部最优解且可循环,这就会减慢收敛速度,或导致模式崩溃、模式跳跃现象。

辛梯度调节算法(SGA)可以在普通博弈中寻找稳定不动点,能改善对抗中基于梯度的方法的动态性。不过,因为需要计算所有参数的二阶导数,SGA的扩展成本很高。

潜在优化可以只分别针对潜在变量z和和判别器、生成器参数,使用二阶导数,来达到近似SGA的效果。

如此,就不必使用计算代价高昂的涉及判别器和生成器参数的二阶项。

简而言之,潜在优化最有效地耦合了判别器和生成器的梯度,且更具可扩展性。

并且,LOGAN受益于强大的优化器。研究人员使用自然梯度下降(NGD)进行潜在优化时发现,这种近似二阶优化方法比精确二阶方法表现更好。

虽然NGD在高维参数空间中同样代价高昂,但即使在非常大的模型中,它对于潜在优化也是有效的。

从实验结果来看,潜在优化明显改善了GAN的训练效果。

采用和BigGAN-deep基线相同的架构和参数数量,LOGAN在FID和IS上都有更好的表现。

不过,在训练期间,因为额外的前向和后向传播,LOGAN每一步的速度比BigGAN慢2到3倍。

华人一作领衔

论文一作,是DeepMind的研究科学家Yan Wu

他于2019获剑桥大学计算神经科学博士学位,16年进入DeepMind工作。

论文的其他几位作者,分别是毕业于UC伯克利的Jeff Donahue博士。

毕业于芝加哥大学数学专业的David Balduzzi博士。

Vision Factory创始人Karen Simonyan。

以及伦敦学院大学客座教授、毕业于皇后大学的系统神经科学博士Timothy Lillicrap。

传送门

论文地址:
https://arxiv.org/abs/1912.00953

相关论文:

SGA:https://arxiv.org/abs/1802.05642
CSGAN:https://arxiv.org/abs/1901.03554

作者系网易新闻·网易号“各有态度”签约作者


大咖齐聚!参会嘉宾重磅揭晓

量子位 MEET 2020 智能未来大会启幕,李开复、倪光南、景鲲、周伯文、吴明辉、曹旭东、叶杰平、唐文斌、王砚峰、黄刚、马原等AI大咖与你一起读懂人工智能。观众票已售罄,欢迎大家戳链接预约直播:http://vku.youku.com/live/ilproom?id=8029679

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态

喜欢就点「在看」吧 !




登录查看更多
1

相关内容

【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
专知会员服务
108+阅读 · 2020年5月21日
斯坦福2020硬课《分布式算法与优化》
专知会员服务
118+阅读 · 2020年5月6日
自回归模型:PixelCNN
专知会员服务
26+阅读 · 2020年3月21日
【学界】DeepMind论文:深度压缩感知,新框架提升GAN性能
GAN生成式对抗网络
14+阅读 · 2019年5月23日
万字综述之生成对抗网络(GAN)
PaperWeekly
43+阅读 · 2019年3月19日
生成对抗网络的研究进展与趋势
中国计算机学会
35+阅读 · 2018年11月14日
Ian Goodfellow:你的GAN水平我来打分
机器之心
4+阅读 · 2018年8月17日
【学界】用生成对抗网络解决NLP问题:谷歌大脑提出MaskGAN
GAN生成式对抗网络
9+阅读 · 2018年2月1日
Phase-aware Speech Enhancement with Deep Complex U-Net
Arxiv
3+阅读 · 2018年11月13日
Arxiv
6+阅读 · 2018年3月12日
Arxiv
3+阅读 · 2017年12月14日
VIP会员
相关资讯
【学界】DeepMind论文:深度压缩感知,新框架提升GAN性能
GAN生成式对抗网络
14+阅读 · 2019年5月23日
万字综述之生成对抗网络(GAN)
PaperWeekly
43+阅读 · 2019年3月19日
生成对抗网络的研究进展与趋势
中国计算机学会
35+阅读 · 2018年11月14日
Ian Goodfellow:你的GAN水平我来打分
机器之心
4+阅读 · 2018年8月17日
【学界】用生成对抗网络解决NLP问题:谷歌大脑提出MaskGAN
GAN生成式对抗网络
9+阅读 · 2018年2月1日
Top
微信扫码咨询专知VIP会员