The global minimum point of an optimization problem is of interest in engineering fields and it is difficult to be solved, especially for a nonconvex large-scale optimization problem. In this article, we consider a new memetic algorithm for this problem. That is to say, we use the determined points (the stationary points of the function) as the initial seeds of the evolutionary algorithm, other than the random initial seeds of the known evolutionary algorithms. Firstly, we revise the continuation Newton method with the deflation technique to find the stationary points from several determined initial points as many as possible. Then, we use those found stationary points as the initial evolutionary seeds of the quasi-genetic algorithm. After it evolves into several generations, we obtain a suboptimal point of the optimization problem. Finally, we use the continuation Newton method with this suboptimal point as the initial point to obtain the stationary point, and output the minimizer between this final stationary point and the found suboptimal point of the quasi-genetic algorithm.Finally, we compare it with the multi-start method (the built-in subroutine GlobalSearch.m of the MATLAB R2020a environment), the differential evolution algorithm (the DE method, the subroutine de.m of the MATLAB Central File Exchange 2021) and the branch-and-bound method (Couenne of a state-of-the-art open source solver for mixed integer nonlinear programming problems), respectively. Numerical results show that the proposed method performs well for the large-scale global optimization problems, especially the problems of which are difficult to be solved by the known global optimization methods.


翻译:优化问题的全球最低点是工程领域感兴趣的, 这个问题很难解决, 特别是对于非convex 大型优化问题。 在此文章中, 我们考虑对此问题采用一种新的计量算法。 也就是说, 我们使用已确定的点( 函数的固定点) 作为进化算法的初始种子, 而不是已知进化算法的随机初始种子。 首先, 我们用通缩技术来修改 Newton 方法的延续性, 以便从尽可能多的确定初始点中找到固定点。 然后, 我们用这些找到的固定点作为准基因算法的初始进化种子。 在它演变成几代后, 我们得到了一个亚最佳点( 函数的固定点) 作为进化算法的初始种子 。 最后, 我们使用 Newton 方法作为进化算法的初始点, 将最后的固定点和 所发现的准遗传算法的亚最优化点( 最后, 我们将它与多启动方法( 已经建成的精度的精度- 精度算法的非进进进化种子 ) 。, 全球的精度的精度变化方法, 亚变化方法将 AL- AL- 解 解法 解 解 解法 解 解 解 解 解 解 解 。

0
下载
关闭预览

相关内容

强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
已删除
AI掘金志
7+阅读 · 2019年7月8日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
[DLdigest-8] 每日一道算法
深度学习每日摘要
4+阅读 · 2017年11月2日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
20+阅读 · 2017年10月1日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2022年2月23日
VIP会员
相关VIP内容
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
已删除
AI掘金志
7+阅读 · 2019年7月8日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
[DLdigest-8] 每日一道算法
深度学习每日摘要
4+阅读 · 2017年11月2日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
20+阅读 · 2017年10月1日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员