Many engineering tasks require solving families of nonlinear constrained optimization problems, parametrized in setting-specific variables. This is computationally demanding, particularly, if solutions have to be computed across strongly varying parameter values, e.g., in real-time control or for model-based design. Thus, we propose to learn the mapping from parameters to the primal optimal solutions and to their corresponding duals using neural networks, giving a dense estimation in contrast to gridded approaches. Our approach, Optimality-informed Neural Networks (OptINNs), combines (i) a KKT-residual loss that penalizes violations of the first-order optimality conditions under standard constraint qualifications assumptions, and (ii) problem-specific output activations that enforce simple inequality constraints (e.g., box-type/positivity) by construction. This design reduces data requirements, allows the prediction of dual variables, and improves feasibility and closeness to optimality compared to penalty-only training. Taking quadratic penalties as a baseline, since this approach has been previously proposed for the considered problem class in literature, our method simplifies hyperparameter tuning and attains tighter adherence to optimality conditions. We evaluate OptINNs on different nonlinear optimization problems ranging from low to high dimensions. On small problems, OptINNs match a quadratic-penalty baseline in primal accuracy while additionally predicting dual variables with low error. On larger problems, OptINNs achieve lower constraint violations and lower primal error compared to neural networks based on the quadratic-penalty method. These results suggest that embedding feasibility and optimality into the network architecture and loss can make learning-based surrogates more accurate, feasible, and data-efficient for parametric optimization.


翻译:许多工程任务需要求解以特定场景变量为参数的非线性约束优化问题族。这在计算上要求很高,尤其是在参数值变化剧烈的情况下(例如实时控制或基于模型的设计)需要计算解时。因此,我们提出使用神经网络学习从参数到原始最优解及其对应对偶解的映射,与网格化方法相比,这提供了密集的估计。我们提出的方法——基于最优性信息的神经网络(OptINNs)结合了:(i)一个KKT残差损失,用于在标准约束规范假设下惩罚一阶最优性条件的违反;(ii)通过构造强制执行简单不等式约束(例如箱型/正性约束)的问题特定输出激活函数。与仅使用惩罚项的训练相比,这种设计降低了数据需求,允许预测对偶变量,并提高了可行性和最优性接近度。以二次惩罚方法为基准(因为该方法在文献中已被提出用于所考虑的问题类别),我们的方法简化了超参数调整,并实现了对最优性条件更严格的遵循。我们在从低维到高维的不同非线性优化问题上评估了OptINNs。在小型问题上,OptINNs在原始解精度上与二次惩罚基准方法相当,同时还能以较低误差预测对偶变量。在较大规模问题上,与基于二次惩罚方法的神经网络相比,OptINNs实现了更低的约束违反和更低的原始解误差。这些结果表明,将可行性和最优性嵌入网络架构和损失函数中,可以使基于学习的代理模型在参数化优化中更准确、更可行且数据效率更高。

0
下载
关闭预览

相关内容

【CVPR2024】非自回归序列到序列的视觉-语言模型
专知会员服务
22+阅读 · 2024年3月5日
【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
21+阅读 · 2022年3月8日
【NeurIPS 2021】学会学习图拓扑
专知会员服务
25+阅读 · 2021年10月22日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【CVPR2024】非自回归序列到序列的视觉-语言模型
专知会员服务
22+阅读 · 2024年3月5日
【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
21+阅读 · 2022年3月8日
【NeurIPS 2021】学会学习图拓扑
专知会员服务
25+阅读 · 2021年10月22日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员