In machine learning and data science, we often consider efficiency for solving problems. In sparse estimation, such as fused lasso and convex clustering, we apply either the proximal gradient method or the alternating direction method of multipliers (ADMM) to solve the problem. It takes time to include matrix division in the former case, while an efficient method such as FISTA (fast iterative shrinkage-thresholding algorithm) has been developed in the latter case. This paper proposes a general method for converting the ADMM solution to the proximal gradient method, assuming that the constraints and objectives are strongly convex. Then, we apply it to sparse estimation problems, such as sparse convex clustering and trend filtering, and we show by numerical experiments that we can obtain a significant improvement in terms of efficiency.


翻译:在机器学习和数据科学中,我们常常考虑解决问题的效率。在诸如集成的拉索和混凝土组群等稀有的估计中,我们要么采用近似梯度法,要么采用乘数交替方向法(ADMM)来解决这个问题。在前一种情况下,需要时间才能将矩阵分割包括在内,而在后一种情况下,我们开发了一种有效的方法,如FISTA(快速迭代缩缩影-保持算法),本文提出了一个将ADMM办法转换为近似梯度法的一般方法,假设限制和目标是很强的弯曲。 然后,我们将其应用于稀有的估计问题,如稀少的convex集群和趋势过滤,我们通过数字实验表明,我们可以在效率方面大大改进。

0
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2021年4月2日
专知会员服务
138+阅读 · 2021年3月17日
专知会员服务
50+阅读 · 2020年12月14日
【经典书】贝叶斯编程,378页pdf,Bayesian Programming
专知会员服务
244+阅读 · 2020年5月18日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
已删除
将门创投
7+阅读 · 2018年4月18日
集成学习入门
论智
8+阅读 · 2018年3月5日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Learning the optimal regularizer for inverse problems
VIP会员
Top
微信扫码咨询专知VIP会员