In this paper, we consider the sparse least squares regression problem with probabilistic simplex constraint. Due to the probabilistic simplex constraint, one could not apply the L1 regularization to the considered regression model. To ?find a sparse solution, we reformulate the least squares regression problem as a nonconvex and nonsmooth L1 regularized minimization problem over the unit sphere. Then we propose a geometric proximal gradient method for solving the regularized problem, where the explicit expression of the global solution to every involved subproblem is obtained. The global convergence of the proposed method is established under some mild assumptions. Some numerical results are reported to illustrate the effectiveness of the proposed algorithm.


翻译:在本文中,我们用概率简单x限制来考虑稀有的最小方块回归问题。 由于概率简单x限制, 我们无法将L1正规化适用于考虑的回归模式。 为了找到一个稀疏的解决办法, 我们重新将最小方块回归问题重新表述为单位范围上的非曲线和非移动L1 常规最小化的最小化问题。 然后我们提出一个几何准轴梯度方法来解决常规化问题, 从而获得对每个所涉子问题的全球解决方案的明确表达。 所提议方法的全球趋同是在一些轻度假设下确立的。 报告了一些数字结果, 以说明拟议算法的有效性 。

0
下载
关闭预览

相关内容

“CVPR 2020 接受论文列表 1470篇论文都在这了
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Logistic回归第二弹——Softmax Regression
机器学习深度学习实战原创交流
9+阅读 · 2015年10月29日
Arxiv
0+阅读 · 2021年9月6日
VIP会员
相关资讯
“CVPR 2020 接受论文列表 1470篇论文都在这了
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Logistic回归第二弹——Softmax Regression
机器学习深度学习实战原创交流
9+阅读 · 2015年10月29日
Top
微信扫码咨询专知VIP会员