The empirical optimal transport (OT) cost between two probability measures from random data is a fundamental quantity in transport based data analysis. In this work, we derive novel guarantees for its convergence rate when the involved measures are different, possibly supported on different spaces. Our central observation is that the statistical performance of the empirical OT cost is determined by the less complex measure, a phenomenon we refer to as lower complexity adaptation of empirical OT. For instance, under Lipschitz ground costs, we find that the empirical OT cost based on $n$ observations converges at least with rate $n^{-1/d}$ to the population quantity if one of the two measures is concentrated on a $d$-dimensional manifold, while the other can be arbitrary. For semi-concave ground costs, we show that the upper bound for the rate improves to $n^{-2/d}$. Similarly, our theory establishes the general convergence rate $n^{-1/2}$ for semi-discrete OT. All of these results are valid in the two-sample case as well, meaning that the convergence rate is still governed by the simpler of the two measures. On a conceptual level, our findings therefore suggest that the curse of dimensionality only affects the estimation of the OT cost when both measures exhibit a high intrinsic dimension. Our proofs are based on the dual formulation of OT as a maximization over a suitable function class $\mathcal{F}_c$ and the observation that the $c$-transform of $\mathcal{F}_c$ under bounded costs has the same uniform metric entropy as $\mathcal{F}_c$ itself.


翻译:随机数据中两种概率计量之间的实验性最佳运输成本(OT)是运输数据分析的基本数量。在这项工作中,当所涉措施不同时,我们为其趋同率提供了新的保障,可能在不同空间得到支持。我们的核心观察是,经验性OT成本的统计性能是由较不复杂的计量所决定的,我们称之为经验性OT的更复杂调整现象。例如,在Lipschitz地面成本下,我们发现基于美元观测的经验性OT成本至少与美元={{{{{{%-1/d}在运输数据分析中与人口数量相匹配,如果两种计量中的一种集中于美元-米-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-卡-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-卡-卡-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-奥-瓦-瓦-瓦-基-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-基-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-瓦-

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
商业数据分析,39页ppt
专知会员服务
157+阅读 · 2020年6月2日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium6
中国图象图形学学会CSIG
2+阅读 · 2021年11月12日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
0+阅读 · 2022年4月19日
VIP会员
相关VIP内容
专知会员服务
50+阅读 · 2020年12月14日
商业数据分析,39页ppt
专知会员服务
157+阅读 · 2020年6月2日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
相关资讯
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium6
中国图象图形学学会CSIG
2+阅读 · 2021年11月12日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员