This paper introduces an enhanced meta-heuristic (ML-ACO) that combines machine learning (ML) and ant colony optimization (ACO) to solve combinatorial optimization problems. To illustrate the underlying mechanism of our ML-ACO algorithm, we start by describing a test problem, the orienteering problem. In this problem, the objective is to find a route that visits a subset of vertices in a graph within a time budget to maximize the collected score. In the first phase of our ML-ACO algorithm, an ML model is trained using a set of small problem instances where the optimal solution is known. Specifically, classification models are used to classify an edge as being part of the optimal route, or not, using problem-specific features and statistical measures. The trained model is then used to predict the probability that an edge in the graph of a test problem instance belongs to the corresponding optimal route. In the second phase, we incorporate the predicted probabilities into the ACO component of our algorithm, i.e., using the probability values as heuristic weights or to warm start the pheromone matrix. Here, the probability values bias sampling towards favoring those predicted high-quality edges when constructing feasible routes. We have tested multiple classification models including graph neural networks, logistic regression and support vector machines, and the experimental results show that our solution prediction approach consistently boosts the performance of ACO. Further, we empirically show that our ML model trained on small synthetic instances generalizes well to large synthetic and real-world instances. Our approach integrating ML with a meta-heuristic is generic and can be applied to a wide range of optimization problems.


翻译:本文引入了一种强化的超湿质( ML- ACO), 将机器学习( ML) 和 蚂蚁聚群优化( ACO) 相结合, 以解决组合优化问题 。 为了展示我们 ML- ACO 算法的基本机制, 我们首先描述测试问题、 方向问题 。 在此问题上, 目标是找到一条路线, 在一个时间预算的图表中访问一组脊椎, 以最大限度地实现所收集的得分。 在 ML- ACO 算法的第一阶段, 一个 ML 模型使用一组已知最佳解决方案的小型问题实例来培训。 具体地说, 使用分类模型来将一个边缘归类为最佳路径的一部分, 或者不使用我们 ML- ACO 算法的精度, 用于将一个大边缘归类为最佳路径的一部分, 或者不使用特定问题特征和统计计量。 然后, 训练的模型用来预测测试测试测试测试测试测试测试测试一个测试点的图象项的边缘值。 第二阶段, 将预测的概率模型纳入我们算法的 ACO 部分, 。, 将我们的概率值作为超重重量重量值 或温暖 开始应用 CO 推进 的 度 的 度 度 度 度 模型 模型 模型 的 的 模型 的 的 的 的 的 的 的 模型的 将 的 的 的 的 的 的 的 的 的 的 的 的 的 的 正在 正在 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 正在 的 的 的 的 的 的 的 的 的 的 的 。

0
下载
关闭预览

相关内容

【UBC】高级机器学习课程,Advanced Machine Learning
专知会员服务
23+阅读 · 2021年1月26日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Machine Learning:十大机器学习算法
开源中国
19+阅读 · 2018年3月1日
机器学习线性代数速查
机器学习研究会
18+阅读 · 2018年2月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
19+阅读 · 2017年10月1日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Arxiv
7+阅读 · 2021年10月19日
Arxiv
4+阅读 · 2020年3月19日
Arxiv
7+阅读 · 2019年5月31日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
5+阅读 · 2018年4月30日
Arxiv
3+阅读 · 2016年2月24日
VIP会员
相关VIP内容
【UBC】高级机器学习课程,Advanced Machine Learning
专知会员服务
23+阅读 · 2021年1月26日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Machine Learning:十大机器学习算法
开源中国
19+阅读 · 2018年3月1日
机器学习线性代数速查
机器学习研究会
18+阅读 · 2018年2月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
19+阅读 · 2017年10月1日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
相关论文
Arxiv
7+阅读 · 2021年10月19日
Arxiv
4+阅读 · 2020年3月19日
Arxiv
7+阅读 · 2019年5月31日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
5+阅读 · 2018年4月30日
Arxiv
3+阅读 · 2016年2月24日
Top
微信扫码咨询专知VIP会员