The classical non-greedy algorithm (NGA) and the recently proposed proximal alternating minimization method with extrapolation (PAMe) for $L_1$-norm PCA are revisited and their finite-step convergence are studied. It is first shown that NGA can be interpreted as a conditional subgradient or an alternating maximization method. By recognizing it as a conditional subgradient, we prove that the iterative points generated by the algorithm will be constant in finitely many steps under a certain full-rank assumption; such an assumption can be removed when the projection dimension is one. By treating the algorithm as an alternating maximization, we then prove that the objective value will be fixed after at most $\left\lceil\frac{F^{\max}}{\tau_0} \right\rceil$ steps, where the stopping point satisfies certain optimality conditions. Then, a slight modification of NGA with improved convergence properties is analyzed. It is shown that the iterative points generated by the modified algorithm will not change after at most $\left\lceil\frac{2F^{\max}}{\tau} \right\rceil$ steps; furthermore, the stopping point satisfies certain optimality conditions if the proximal parameter $\tau$ is small enough. For PAMe, it is proved that the sign variable will remain constant after finitely many steps and the algorithm can output a point satisfying certain optimality condition, if the parameters are small enough and a full rank assumption is satisfied. Moreover, if there is no proximal term on the projection matrix related subproblem, then the iterative points generated by this modified algorithm will not change after at most $\left\lceil \frac{4F^{\max}}{\tau(1-\gamma)} \right\rceil$ steps and the stopping point also satisfies certain optimality conditions, provided similar assumptions as those for PAMe. The full rank assumption can be removed when the projection dimension is one.


翻译:经典的非贪婪算法(NGA)和最近提出的具有外推的近端交替最小化(PAMe)算法,用于 $L_1$-范主成分分析的方法被重新审视并研究它们的有限步收敛性。 首先,我们表明NGA可以被解释为条件子梯度或交替最大化方法。通过将其视为条件子梯度,我们证明了在某些全秩假设下,由该算法产生的迭代点将在有限的步骤内保持常数;当投影维度为1时,可以消除这种假设。通过将该算法视为交替最大化方法,我们接着证明,根据一定的停止准则,在 $\left\lceil\frac{F^{\max}}{\tau_0} \right\rceil$ 步之后,目标值将保持不变。 接着分析改进了收敛性的NGA的略微修改版。 证明了改进算法产生的迭代点在不超过 $\left\lceil\frac{2F^{\max}}{\tau} \right\rceil$ 步之后不会发生变化。当近端参数 $\tau$ 足够小时,停止点满足某些最优性条件。 对于 PAMe 算法,证明了在参数足够小且满足全秩假设时,符号变量将在有限步之后保持不变,并且该算法可以输出满足某些最优性条件的点。此外,如果在与投影矩阵相关的子问题上没有近端项,则根据类似于PAMe的假设,此改进算法生成的迭代点将在不超过 $\left\lceil \frac{4F^{\max}}{\tau(1-\gamma)} \right\rceil$ 步之后不发生变化,并且停止点也满足某些最优性条件。在投影维度为1时,可以消除全秩假设。

0
下载
关闭预览

相关内容

在统计中,主成分分析(PCA)是一种通过最大化每个维度的方差来将较高维度空间中的数据投影到较低维度空间中的方法。给定二维,三维或更高维空间中的点集合,可以将“最佳拟合”线定义为最小化从点到线的平均平方距离的线。可以从垂直于第一条直线的方向类似地选择下一条最佳拟合线。重复此过程会产生一个正交的基础,其中数据的不同单个维度是不相关的。 这些基向量称为主成分。
【干货书】实值与凸分析,172页pdf,Real and Convex Analysis
专知会员服务
42+阅读 · 2023年1月2日
南大《优化方法 (Optimization Methods》课程,推荐!
专知会员服务
79+阅读 · 2022年4月3日
专知会员服务
16+阅读 · 2021年5月21日
一文汇总超参自动优化方法
极市平台
0+阅读 · 2022年11月3日
CSIG-机器学习中的加速一阶优化算法系列讲座第五讲圆满结束
CSIG机器视觉专委会
0+阅读 · 2022年7月19日
一些关于随机矩阵的算法
PaperWeekly
1+阅读 · 2022年7月13日
论文浅尝 | Continual Learning for Named Entity Recognition
开放知识图谱
1+阅读 · 2022年6月25日
颠覆认知!数据增强、正则化可导致不易察觉的灾难?
夕小瑶的卖萌屋
0+阅读 · 2022年6月9日
从重参数的角度看离散概率分布的构建
PaperWeekly
0+阅读 · 2022年5月28日
一文理解Ranking Loss/Margin Loss/Triplet Loss
极市平台
16+阅读 · 2020年8月10日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
学习 | word2vec的前世今生
菜鸟的机器学习
14+阅读 · 2018年3月21日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月12日
Arxiv
0+阅读 · 2023年5月12日
VIP会员
相关VIP内容
【干货书】实值与凸分析,172页pdf,Real and Convex Analysis
专知会员服务
42+阅读 · 2023年1月2日
南大《优化方法 (Optimization Methods》课程,推荐!
专知会员服务
79+阅读 · 2022年4月3日
专知会员服务
16+阅读 · 2021年5月21日
相关资讯
一文汇总超参自动优化方法
极市平台
0+阅读 · 2022年11月3日
CSIG-机器学习中的加速一阶优化算法系列讲座第五讲圆满结束
CSIG机器视觉专委会
0+阅读 · 2022年7月19日
一些关于随机矩阵的算法
PaperWeekly
1+阅读 · 2022年7月13日
论文浅尝 | Continual Learning for Named Entity Recognition
开放知识图谱
1+阅读 · 2022年6月25日
颠覆认知!数据增强、正则化可导致不易察觉的灾难?
夕小瑶的卖萌屋
0+阅读 · 2022年6月9日
从重参数的角度看离散概率分布的构建
PaperWeekly
0+阅读 · 2022年5月28日
一文理解Ranking Loss/Margin Loss/Triplet Loss
极市平台
16+阅读 · 2020年8月10日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
学习 | word2vec的前世今生
菜鸟的机器学习
14+阅读 · 2018年3月21日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员