Mini-batch optimal transport (m-OT) has been widely used recently to deal with the memory issue of OT in large-scale applications. Despite their practicality, m-OT suffers from misspecified mappings, namely, mappings that are optimal on the mini-batch level but are partially wrong in the comparison with the optimal transportation plan between the original measures. To address the misspecified mappings issue, we propose a novel mini-batch method by using partial optimal transport (POT) between mini-batch empirical measures, which we refer to as mini-batch partial optimal transport (m-POT). Leveraging the insight from the partial transportation, we explain the source of misspecified mappings from the m-OT and motivate why limiting the amount of transported masses among mini-batches via POT can alleviate the incorrect mappings. Finally, we carry out extensive experiments on various applications to compare m-POT with m-OT and recently proposed mini-batch method, mini-batch unbalanced optimal transport (m-UOT). We observe that m-POT is better than m-OT in deep domain adaptation applications while having comparable performance with m-UOT. On other applications, such as deep generative model and color transfer, m-POT yields more favorable performance than m-OT while m-UOT is non-trivial to apply.


翻译:最近,在大规模应用中,微型批量最佳运输(m-OT)被广泛用于处理小批量最佳运输(m-OT)的记忆问题。尽管其实用性很强,但微型批量最佳运输(m-OT)却受到定义错误的绘图的影响,即微型批量最优运输(m-OT)与原措施之间最佳运输计划相比是最佳的,但在与原措施之间的最佳运输计划相比,这种地图与原措施之间则存在部分错误的对比。为了解决定义错误的绘图问题,我们建议了一种新型小型批量最优运输方法,即微型批量最佳运输(POT),我们称之为小型批量最佳运输(m-POT),利用部分运输的洞量了解,我们解释了从移动式运输中错误地绘制图的来源,并激励了为什么通过POT(POT)限制小型作战部队之间运输数量可以减轻错误的绘图。 最后,我们进行了广泛的实验,将M-POT(M-OT)与最近提出的微型批量最佳运输(m-OT)方法(m-UOT)比其他可模拟应用的模型好。我们发现在深域应用中比模化应用应用中比模-OOOOT(m-OT-OT-OT-OT-OT-OT-OT-OT-OT-OD-OT)比其他类似性能。

0
下载
关闭预览

相关内容

【Google-Marco Cuturi】最优传输,339页ppt,Optimal Transport
专知会员服务
47+阅读 · 2021年10月26日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
区块链、AI平均40W 年薪!4 张图告诉你BAT 正在抢谁?
高效率工具搜罗
13+阅读 · 2018年3月5日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
0+阅读 · 2021年11月28日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
区块链、AI平均40W 年薪!4 张图告诉你BAT 正在抢谁?
高效率工具搜罗
13+阅读 · 2018年3月5日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员