The Wasserstein distance has become increasingly important in machine learning and deep learning. Despite its popularity, the Wasserstein distance is hard to approximate because of the curse of dimensionality. A recently proposed approach to alleviate the curse of dimensionality is to project the sampled data from the high dimensional probability distribution onto a lower-dimensional subspace, and then compute the Wasserstein distance between the projected data. However, this approach requires to solve a max-min problem over the Stiefel manifold, which is very challenging in practice. The only existing work that solves this problem directly is the RGAS (Riemannian Gradient Ascent with Sinkhorn Iteration) algorithm, which requires to solve an entropy-regularized optimal transport problem in each iteration, and thus can be costly for large-scale problems. In this paper, we propose a Riemannian block coordinate descent (RBCD) method to solve this problem, which is based on a novel reformulation of the regularized max-min problem over the Stiefel manifold. We show that the complexity of arithmetic operations for RBCD to obtain an $\epsilon$-stationary point is $O(\epsilon^{-3})$. This significantly improves the corresponding complexity of RGAS, which is $O(\epsilon^{-12})$. Moreover, our RBCD has very low per-iteration complexity, and hence is suitable for large-scale problems. Numerical results on both synthetic and real datasets demonstrate that our method is more efficient than existing methods, especially when the number of sampled data is very large.


翻译:瓦斯特斯坦距离在机器学习和深层次学习中变得越来越重要。 尽管它受到欢迎, 瓦斯特斯坦距离由于维度的诅咒而很难估计。 最近提出的一个减轻维度诅咒的方法是将高维概率分布的抽样数据投射到一个低维次空间, 然后计算预测数据之间的瓦斯特斯坦距离。 但是, 这种方法需要解决Stiefel 方块的最大问题, 这在实践中非常具有挑战性。 直接解决这个问题的唯一现有工作是 RGAS (Riemannical Gradient Ascent with Sinkhorn Iteration) 算法, 它需要解决每个迭代中最常态的最佳运输问题, 从而对大规模问题来说成本昂贵。 在本文中, 我们提议一个里曼方块协调下行( RBCD) 方法来解决这个问题, 它基于对常规化的峰值问题进行创新的重新校正重校正重校正重校正重校正重。 我们显示 RBCD $ 的计算操作的复杂性( Rinkical) 和 美元 特别Sain 的常价 的计算方法, 都显示, 。

0
下载
关闭预览

相关内容

【论文】结构GANs,Structured GANs,
专知会员服务
14+阅读 · 2020年1月16日
专知会员服务
159+阅读 · 2020年1月16日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
997篇-历史最全生成对抗网络(GAN)论文串烧
深度学习与NLP
16+阅读 · 2018年6月26日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
3+阅读 · 2017年12月1日
VIP会员
相关VIP内容
【论文】结构GANs,Structured GANs,
专知会员服务
14+阅读 · 2020年1月16日
专知会员服务
159+阅读 · 2020年1月16日
相关资讯
Top
微信扫码咨询专知VIP会员