Finding high-quality solutions to mixed-integer linear programming problems (MILPs) is of great importance for many practical applications. In this respect, the refinement heuristic local branching (LB) has been proposed to produce improving solutions and has been highly influential for the development of local search methods in MILP. The algorithm iteratively explores a sequence of solution neighborhoods defined by the so-called local branching constraint, namely, a linear inequality limiting the distance from a reference solution. For a LB algorithm, the choice of the neighborhood size is critical to performance. Although it was initialized by a conservative value in the original LB scheme, our new observation is that the best size is strongly dependent on the particular MILP instance. In this work, we investigate the relation between the size of the search neighborhood and the behavior of the underlying LB algorithm, and we devise a leaning based framework for guiding the neighborhood search of the LB heuristic. The framework consists of a two-phase strategy. For the first phase, a scaled regression model is trained to predict the size of the LB neighborhood at the first iteration through a regression task. In the second phase, we leverage reinforcement learning and devise a reinforced neighborhood search strategy to dynamically adapt the size at the subsequent iterations. We computationally show that the neighborhood size can indeed be learned, leading to improved performances and that the overall algorithm generalizes well both with respect to the instance size and, remarkably, across instances.


翻译:对于许多实际应用来说,为混合整数线性编程问题(MILPs)找到高质量解决方案是十分重要的。在这方面,为了改进解决方案,提出了精细的超额本地分支(LB),以提出改进解决方案,对MILP本地搜索方法的发展具有高度影响。演算法迭代地探索了所谓的本地分支制约所定义的一系列解决方案区域,即线性不平等,限制与参考解决方案的距离。对于LB算法,选择邻里规模对于业绩至关重要。虽然最初的LB计划是一个保守值,但我们的新观察是,最佳规模在很大程度上取决于特定的MILP实例。在这项工作中,我们调查了搜索区的规模与基本的LB算法行为之间的关系。我们设计了一个精细化的框架来指导邻里搜索 LB Heuristic 。框架由两阶段战略组成。在第一阶段,一个规模扩大的回归模型经过培训,以预测LB邻的大小,在最初的LB区块规模,而我们的新观察发现,最佳规模在很大程度上取决于特定的MILP实例,在特定的MIP实例中。在这个工作中,我们研究搜索阶段里拉动总体的递增规模战略。在随后,我们学习了区域规模的升级后,可以展示。在搜索阶段里程中,我们学习其总体递增后演算法。

0
下载
关闭预览

相关内容

【如何做研究】How to research ,22页ppt
专知会员服务
108+阅读 · 2021年4月17日
【新书】深度学习搜索,Deep Learning for Search,附327页pdf
专知会员服务
204+阅读 · 2020年1月13日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度强化学习简介
专知
30+阅读 · 2018年12月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
已删除
将门创投
5+阅读 · 2017年10月20日
Arxiv
0+阅读 · 2022年2月6日
Arxiv
8+阅读 · 2021年5月21日
Arxiv
14+阅读 · 2019年9月11日
Risk-Aware Active Inverse Reinforcement Learning
Arxiv
7+阅读 · 2019年1月8日
Arxiv
11+阅读 · 2018年7月8日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度强化学习简介
专知
30+阅读 · 2018年12月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
已删除
将门创投
5+阅读 · 2017年10月20日
Top
微信扫码咨询专知VIP会员