我们研究生成对抗网络(GAN)如何很好地学习有限样本的概率分布,通过分析这些模型的收敛速度。我们的分析基于一个新的oracle不等式,该不等式将GAN的估计误差分解为鉴别器和发生器的逼近误差、泛化误差和优化误差。为了估计鉴别器逼近误差,我们建立了用ReLU神经网络逼近Hölder函数的误差界,并给出了网络的Lipschitz常数的显式上界或权值的范数约束。对于发生器逼近误差,我们证明了神经网络可以将低维源分布近似转化为高维目标分布,并通过神经网络的宽度和深度约束这种逼近误差。结合统计学习理论中神经网络的泛化边界和近似结果,我们建立了GANs在各种设置下的收敛速度,当误差由Hölder类定义的积分概率度量集合测量时,包括Wasserstein距离作为一种特殊情况。特别地,对于集中在低维集合周围的分布,我们证明了GANs的收敛速度不依赖于高的环境维数,而是依赖于较低的本征维数。

成为VIP会员查看完整内容
33

相关内容

生成对抗网络 (Generative Adversarial Network, GAN) 是一类神经网络,通过轮流训练判别器 (Discriminator) 和生成器 (Generator),令其相互对抗,来从复杂概率分布中采样,例如生成图片、文字、语音等。GAN 最初由 Ian Goodfellow 提出,原论文见 Generative Adversarial Networks

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【多伦多大学博士论文】深度学习中的训练效率和鲁棒性
《实现稳健和弹性机器学习》243页CMU博士论文
专知会员服务
31+阅读 · 2022年5月12日
【博士论文】基于冲量的加速优化算法
专知会员服务
24+阅读 · 2021年11月29日
专知会员服务
34+阅读 · 2021年7月19日
专知会员服务
28+阅读 · 2020年12月14日
专知会员服务
18+阅读 · 2020年12月9日
【CVPR2022】视频对比学习的概率表示
专知
1+阅读 · 2022年4月12日
梯度下降(Gradient Descent)的收敛性分析
PaperWeekly
2+阅读 · 2022年3月10日
去伪存真:因果约束下的图神经网络泛化
PaperWeekly
0+阅读 · 2022年2月10日
【干货】最新GAN教程,153PPT附代码
GAN生成式对抗网络
12+阅读 · 2018年9月18日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
【论文笔记】ICLR 2018 Wasserstein自编码器
专知
26+阅读 · 2018年6月29日
探幽深度生成模型的两种方法:VAE和GAN
AI前线
15+阅读 · 2018年3月10日
GAN的数学原理
算法与数学之美
14+阅读 · 2017年9月2日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
18+阅读 · 2021年6月10日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
38+阅读 · 2020年12月2日
已删除
Arxiv
31+阅读 · 2020年3月23日
VIP会员
相关VIP内容
相关资讯
【CVPR2022】视频对比学习的概率表示
专知
1+阅读 · 2022年4月12日
梯度下降(Gradient Descent)的收敛性分析
PaperWeekly
2+阅读 · 2022年3月10日
去伪存真:因果约束下的图神经网络泛化
PaperWeekly
0+阅读 · 2022年2月10日
【干货】最新GAN教程,153PPT附代码
GAN生成式对抗网络
12+阅读 · 2018年9月18日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
【论文笔记】ICLR 2018 Wasserstein自编码器
专知
26+阅读 · 2018年6月29日
探幽深度生成模型的两种方法:VAE和GAN
AI前线
15+阅读 · 2018年3月10日
GAN的数学原理
算法与数学之美
14+阅读 · 2017年9月2日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员