This is a tutorial and survey paper on Karush-Kuhn-Tucker (KKT) conditions, first-order and second-order numerical optimization, and distributed optimization. After a brief review of history of optimization, we start with some preliminaries on properties of sets, norms, functions, and concepts of optimization. Then, we introduce the optimization problem, standard optimization problems (including linear programming, quadratic programming, and semidefinite programming), and convex problems. We also introduce some techniques such as eliminating inequality, equality, and set constraints, adding slack variables, and epigraph form. We introduce Lagrangian function, dual variables, KKT conditions (including primal feasibility, dual feasibility, weak and strong duality, complementary slackness, and stationarity condition), and solving optimization by method of Lagrange multipliers. Then, we cover first-order optimization including gradient descent, line-search, convergence of gradient methods, momentum, steepest descent, and backpropagation. Other first-order methods are explained, such as accelerated gradient method, stochastic gradient descent, mini-batch gradient descent, stochastic average gradient, stochastic variance reduced gradient, AdaGrad, RMSProp, and Adam optimizer, proximal methods (including proximal mapping, proximal point algorithm, and proximal gradient method), and constrained gradient methods (including projected gradient method, projection onto convex sets, and Frank-Wolfe method). We also cover non-smooth and $\ell_1$ optimization methods including lasso regularization, convex conjugate, Huber function, soft-thresholding, coordinate descent, and subgradient methods. Then, we explain second-order methods including Newton's method for unconstrained, equality constrained, and inequality constrained problems....


翻译:这是关于Karush-Kuhn-Tucker(KKT)条件、一阶和二阶软质数字优化以及分布式优化的辅导和调查文件。在对优化历史进行简要回顾之后,我们首先对优化的特性、规范、功能和优化概念进行一些初步研究。然后,我们介绍优化问题、标准优化问题(包括线性编程、二次编程和半无底线编程),以及 convex问题。我们还采用一些技术,如消除不平等、平等、设置限制、添加松软变量和缩数形式等。我们引入了 Lagrangeian 函数、双阶变量、KKKKT条件(包括初等可行性、双轨可行性、弱和强的双重性、互补松懈和稳性性),然后通过拉格乘数乘数法来解决优化问题。然后,我们介绍一级优化,包括梯度下降、线搜索、梯度下行、降级和后退、后退、其他一级方法,例如加速梯度梯度梯度下降、小型梯度梯度梯度梯度梯度梯度梯度梯度梯度梯度梯度梯度梯度、低、正下、正下、正下、平下、平质梯度梯度梯度梯度梯度梯度梯度梯度梯度梯度梯度下、平下、平下、平下、平下、平下、平下、平下、节法等等等方法下调法、降法、降法等方法、降后推后推后推。

1
下载
关闭预览

相关内容

最优化是应用数学的一个分支,主要指在一定条件限制下,选取某种研究方案使目标达到最优的一种方法。最优化问题在当今的军事、工程、管理等领域有着极其广泛的应用。
专知会员服务
44+阅读 · 2020年10月31日
【ICML2020】机器学习无参数在线优化,294页ppt
专知会员服务
54+阅读 · 2020年8月1日
专知会员服务
161+阅读 · 2020年1月16日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
已删除
将门创投
3+阅读 · 2019年11月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Arxiv
0+阅读 · 2021年11月26日
Arxiv
0+阅读 · 2021年11月26日
Arxiv
0+阅读 · 2021年11月25日
Optimization for deep learning: theory and algorithms
Arxiv
105+阅读 · 2019年12月19日
Arxiv
3+阅读 · 2017年12月1日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
3+阅读 · 2019年11月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Top
微信扫码咨询专知VIP会员