Generative Adversarial Networks are a popular method for learning distributions from data by modeling the target distribution as a function of a known distribution. The function, often referred to as the generator, is optimized to minimize a chosen distance measure between the generated and target distributions. One commonly used measure for this purpose is the Wasserstein distance. However, Wasserstein distance is hard to compute and optimize, and in practice entropic regularization techniques are used to improve numerical convergence. The influence of regularization on the learned solution, however, remains not well-understood. In this paper, we study how several popular entropic regularizations of Wasserstein distance impact the solution in a simple benchmark setting where the generator is linear and the target distribution is high-dimensional Gaussian. We show that entropy regularization promotes the solution sparsification, while replacing the Wasserstein distance with the Sinkhorn divergence recovers the unregularized solution. Both regularization techniques remove the curse of dimensionality suffered by Wasserstein distance. We show that the optimal generator can be learned to accuracy $\epsilon$ with $O(1/\epsilon^2)$ samples from the target distribution. We thus conclude that these regularization techniques can improve the quality of the generator learned from empirical data for a large class of distributions.


翻译:生成Adversarial Networks 是一种常用的方法,通过模拟目标分布作为已知分布的函数,从数据中学习分布。 函数( 通常称为生成器) 被优化, 以尽量减少生成和目标分布之间的选定距离测量。 用于此目的的一个常用尺度是瓦瑟斯坦距离。 然而, 瓦瑟斯坦距离很难计算和优化, 在实践中, 使用昆士坦语调节技术来改进数字融合。 但是, 正规化对学习的解决方案的影响仍然不十分清楚。 在本文中, 我们研究瓦瑟斯坦距离的几种流行性昆士兰定律如何在简单基准设置中影响解决方案, 即生成器为线性, 目标分布为高维度。 我们显示, 加密定律有助于溶解, 同时用Sinkhorn差异取代瓦瑟斯坦距离, 恢复了不正规化的解决方案。 两种正规化技术都消除了瓦瑟斯坦距离对水度的诅咒。 我们表明, 最佳发电机可以学习如何精确使用$\ eplon$, 和 $\ epsistein assal lag the the laftal laft laft laft laft ex laft laft laft ex lagend the the messs the sake the make the makes the made the saldaldaldald lagendaldaldaldaldald lagenations lagendaldaldaldaldal lagend lagend lagendaldald exgal lagen制, lagendald exgald exgs exgalds max exgs. exgs ex s ds exaldal exaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldal ex exaldaldaldaldaldaldal ex ex ex ex ex ex exald ex ex exal exal exal ex ex ex ex exal ex

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【新书】Python编程基础,669页pdf
专知会员服务
194+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
已删除
将门创投
5+阅读 · 2019年6月28日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
11+阅读 · 2021年3月25日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
A Probe into Understanding GAN and VAE models
Arxiv
9+阅读 · 2018年12月13日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
4+阅读 · 2018年4月10日
Arxiv
12+阅读 · 2018年1月12日
VIP会员
相关资讯
已删除
将门创投
5+阅读 · 2019年6月28日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
11+阅读 · 2021年3月25日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
A Probe into Understanding GAN and VAE models
Arxiv
9+阅读 · 2018年12月13日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
4+阅读 · 2018年4月10日
Arxiv
12+阅读 · 2018年1月12日
Top
微信扫码咨询专知VIP会员