加入极市专业CV交流群,与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度 等名校名企视觉开发者互动交流!
同时提供每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流。关注 极市平台 公众号 ,回复 加群,立刻申请入群~
前几天听了林宙辰老师的一个报告,讲的是机器学习中的优化方法[1],做个笔记。推荐机器学习的人去听听。林老师的主页:https://zhouchenlin.github.io/zhouchenlin.github.io
机器学习是离不开优化方法的,Pedro Domingos这样概括机器学习和优化方法的关系:
“Machine learning=Representation+Optimization+Evaluation”
后面三项对应于三步:建立模型,求解模型,验证模型。
首先介绍一下机器学习中常见的优化问题:
1.分类回归问题
很多的分类回归问题都可以写成问题(1)的一个特例,比如SVM,正则的logistic回归,多层感知器,线性回归,岭回归,Lasso问题等。
2.AdaBoost
通常数据的分类面可能是很复杂的,我们可以通过多个简单的线性分类器组合而成。
3.生成对抗网络
4.AutoML
自动超参数的选取,这是一个双层优化问题。
根据所需要的信息,算法大概分为三种:零阶、一阶、二阶。
机器学习中,一阶用的是最广泛的。当然也不排除有零阶和二阶的,这适用于那些具有特殊结构的问题。
1.基本模块:
通常的优化算法主要有以下几个模块,将这些模块以不同的方式组合一下就得到了不同的优化方法。
2.机器学习中的无约束优化算法
假设函数
当目标函数是二次的时候,选出来的方向
上面说到的逆牛顿需要存储一个大的矩阵
考虑可分问题:
该算法需要假设对于g的proximal operator是容易计算的。
考虑一般问题:
首先走一个梯度步,然后投影回去。
通过罚参数将约束集放到目标函数上,其中
其中需要
当约束是线性约束并且可分的时,可以采用ADMM,考虑问题:
对应的增广拉格朗日函数为:
ADMM算法交替的去更新增广拉格朗日函数中的三个变量:
如果对于
如果问题中的变量可以分为多块,比如:
这种情况下可以采取块坐标下降方法:本质上是交替极小的一个扩展。
考虑如下形式的问题:
找到一个近似的方向
通常情况下的加速策略都是利用内插和外推。
1.确定
将Nesterov加速应用到了非光滑的可分问题(2)上:
考虑问题:
我们可以用梯度方法:
接着我们采用最初的随机梯度方法:
这两个方法似乎都是一种极端,所以中间存在一种tradeoff。思考如何做到在降低variance的情况下计算量不要增长的太快。
这个方法的思想就是,每隔一段时间算一次完整梯度,用这个信息去矫正每一步的随机梯度方向。
这个方法是Nesterov加速和variance reduction的结合。(这个名字取得真是让人摸不着头脑,包括下面的Catalyst,还有一个方法SARAH)
注意到第三步,你可以使用任何一个可以计算的方法去求解第三步中的问题
这个相对于SVRG方差更小。
大规模优化的展望主要有这几点:
最后林老师推荐了机器学习的人应该学习的优化书籍,最后一本是林老师自己的。