A recent line of research investigates how algorithms can be augmented with machine-learned predictions to overcome worst case lower bounds. This area has revealed interesting algorithmic insights into problems, with particular success in the design of competitive online algorithms. However, the question of improving algorithm running times with predictions has largely been unexplored. We take a first step in this direction by combining the idea of machine-learned predictions with the idea of "warm-starting" primal-dual algorithms. We consider one of the most important primitives in combinatorial optimization: weighted bipartite matching and its generalization to $b$-matching. We identify three key challenges when using learned dual variables in a primal-dual algorithm. First, predicted duals may be infeasible, so we give an algorithm that efficiently maps predicted infeasible duals to nearby feasible solutions. Second, once the duals are feasible, they may not be optimal, so we show that they can be used to quickly find an optimal solution. Finally, such predictions are useful only if they can be learned, so we show that the problem of learning duals for matching has low sample complexity. We validate our theoretical findings through experiments on both real and synthetic data. As a result we give a rigorous, practical, and empirically effective method to compute bipartite matchings.


翻译:最近的一系列研究调查了如何用机器学的预测来扩大算法,以克服最差的病例下限。 这个领域揭示了对问题的有趣的算法洞察力, 特别是在设计竞争性在线算法方面。 但是, 改进算法运行时间的问题与预测基本上没有被探讨出来。 我们在这方面迈出了第一步, 将机器学预测的概念与“ 启动” 原始- 双重算法的概念结合起来。 我们认为, 组合优化中最重要的原始方法之一 : 加权双方匹配及其概括化为$b$- 配对。 当在原始- 双向算法中使用学习过的双重变量时, 我们发现了三个关键的挑战。 首先, 预测的双重变量可能是不可行的, 因此我们给出了一种算法, 高效地将不可行的二元预测与附近可行的解决方案结合起来。 其次, 一旦两元组合法可行, 它们可能不是最佳的, 因此我们证明它们可以很快地用来找到一个最佳的解决方案。 最后, 这种预测是有用的, 只有当它们能够学到的话, 我们才能找出三个关键的双重变量。 因此, 我们用一个有效的双轨方法来学习一个真正的 。

0
下载
关闭预览

相关内容

专知会员服务
30+阅读 · 2021年6月12日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年9月22日
Arxiv
0+阅读 · 2021年9月19日
Arxiv
12+阅读 · 2021年6月29日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
7+阅读 · 2019年5月31日
Arxiv
3+阅读 · 2018年10月18日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
0+阅读 · 2021年9月22日
Arxiv
0+阅读 · 2021年9月19日
Arxiv
12+阅读 · 2021年6月29日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
7+阅读 · 2019年5月31日
Arxiv
3+阅读 · 2018年10月18日
Top
微信扫码咨询专知VIP会员