We propose a hybrid resampling method to approximate finitely supported Wasserstein barycenters on large-scale datasets, which can be combined with any exact solver. Nonasymptotic bounds on the expected error of the objective value as well as the barycenters themselves allow to calibrate computational cost and statistical accuracy. The rate of these upper bounds is shown to be optimal and independent of the underlying dimension, which appears only in the constants. Using a simple modification of the subgradient descent algorithm of Cuturi and Doucet, we showcase the applicability of our method on a myriad of simulated datasets, as well as a real-data example which are out of reach for state of the art algorithms for computing Wasserstein barycenters.


翻译:我们建议一种混合再采样方法,在大型数据集中大致使用有限支持的瓦森斯坦(Wasserstein)百分点,该方法可以与任何精确的求解器结合起来。 目标值预期错误的非抽调边框以及百居器本身可以校准计算成本和统计准确性。 这些上边框的速率被证明是最佳的,并且与基本维度无关,后者只出现在常数中。 我们简单地修改Cuturi和Doucet的次梯位下位下位运算法,我们展示了我们的方法在无数模拟数据集中的可适用性,并展示了一个实际数据示例,而计算瓦森(Wasserstein)百居器的艺术算法状态则无法触及。

0
下载
关闭预览

相关内容

专知会员服务
51+阅读 · 2020年12月14日
【Google】梯度下降,48页ppt
专知会员服务
81+阅读 · 2020年12月5日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
已删除
将门创投
6+阅读 · 2019年1月2日
Arxiv
0+阅读 · 2021年2月13日
VIP会员
相关资讯
已删除
将门创投
6+阅读 · 2019年1月2日
Top
微信扫码咨询专知VIP会员