Formulating real-world optimization problems often begins with making predictions from historical data (e.g., an optimizer that aims to recommend fast routes relies upon travel-time predictions). Typically, learning the prediction model used to generate the optimization problem and solving that problem are performed in two separate stages. Recent work has showed how such prediction models can be learned end-to-end by differentiating through the optimization task. Such methods often yield empirical improvements, which are typically attributed to end-to-end making better error tradeoffs than the standard loss function used in a two-stage solution. We refine this explanation and more precisely characterize when end-to-end can improve performance. When prediction targets are stochastic, a two-stage solution must make an a priori choice about which statistics of the target distribution to model-we consider expectations over prediction targets-while an end-to-end solution can make this choice adaptively. We show that the performance gap between a two-stage and end-to-end approach is closely related to the price of correlation concept in stochastic optimization and show the implications of some existing POC results for the predict-then-optimize problem. We then consider a novel and particularly practical setting, where multiple prediction targets are combined to obtain each of the objective function's coefficients. We give explicit constructions where (1) two-stage performs unboundedly worse than end-to-end; and (2) two-stage is optimal. We use simulations to experimentally quantify performance gaps and identify a wide range of real-world applications from the literature whose objective functions rely on multiple prediction targets, suggesting that end-to-end learning could yield significant improvements.


翻译:从历史数据(例如,一个旨在推荐快速路线的优化者,以旅行时间预测为基础)预测现实世界优化问题通常始于从历史数据作出预测(例如,一个旨在建议快速路线的优化者,以旅行时间预测为基础)。通常,学习用来产生优化问题的预测模型,分两个阶段解决这个问题。最近的工作表明,如何通过优化任务从端到端学习这些预测模型的端到端,这种方法往往产生经验性改进,通常归因于端到端之间的误差偏差大于两阶段解决方案中所使用的标准损失函数。我们完善这一解释,并在端到端能够提高绩效时更准确地描述这些解释。当预测应用具有先验性时,一个两阶段的解决办法必须先验性地选择哪些指标分布在模型上考虑对预测目标的预期值,而端到端到端解决办法可以使这种选择适应性。我们显示,两阶段和端到端方法之间的性差差与相关概念的价格密切相关,我们改进了这一解释,并显示某些POC结果对预测-端到端的改进性能改进性能改善性,在预测-末的功能上,我们考虑一个不同阶段的数值和两阶段的精确的预测性结果的精确的计算结果,其中,每个都可以使每个阶段的精确地进行一个不同的计算,一个不同的计算。我们考虑一个不同的计算,一个不同的计算,一个不同的计算,一个不同的计算,一个不同的计算,一个不同的计算,一个不同的计算。

0
下载
关闭预览

相关内容

可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
已删除
将门创投
7+阅读 · 2018年4月25日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Arxiv
0+阅读 · 2022年2月18日
Arxiv
0+阅读 · 2022年2月18日
Arxiv
64+阅读 · 2021年6月18日
Arxiv
7+阅读 · 2021年5月25日
Arxiv
4+阅读 · 2020年3月19日
Learning Discriminative Model Prediction for Tracking
Arxiv
3+阅读 · 2018年2月24日
VIP会员
相关VIP内容
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
相关资讯
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
已删除
将门创投
7+阅读 · 2018年4月25日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
相关论文
Arxiv
0+阅读 · 2022年2月18日
Arxiv
0+阅读 · 2022年2月18日
Arxiv
64+阅读 · 2021年6月18日
Arxiv
7+阅读 · 2021年5月25日
Arxiv
4+阅读 · 2020年3月19日
Learning Discriminative Model Prediction for Tracking
Arxiv
3+阅读 · 2018年2月24日
Top
微信扫码咨询专知VIP会员