The least-absolute shrinkage and selection operator (LASSO) is a regularization technique for estimating sparse signals of interest emerging in various applications and can be efficiently solved via the alternating direction method of multipliers (ADMM), which will be termed as LASSO-ADMM algorithm. The choice of the regularization parameter has significant impact on the performance of LASSO-ADMM algorithm. However, the optimization for the regularization parameter in the existing LASSO-ADMM algorithms has not been solved yet. In order to optimize this regularization parameter, we propose an efficient iterative adaptively regularized LASSO-ADMM (IAR-LASSO-ADMM) algorithm by iteratively updating the regularization parameter in the LASSO-ADMM algorithm. Moreover, a method is designed to iteratively update the regularization parameter by adding an outer iteration to the LASSO-ADMM algorithm. Specifically, at each outer iteration the zero support of the estimate obtained by the inner LASSO-ADMM algorithm is utilized to estimate the noise variance, and the noise variance is utilized to update the threshold according to a pre-defined const false alarm rate (CFAR). Then, the resulting threshold is utilized to update both the non-zero support of the estimate and the regularization parameter, and proceed to the next inner iteration. In addition, a suitable stopping criterion is designed to terminate the outer iteration process to obtain the final non-zero support of the estimate of the sparse measurement signals. The resulting algorithm is termed as IAR-LASSO-ADMM-CFAR algorithm. Finally, simulation results have been presented to show that the proposed IAR-LASSO-ADMM-CFAR algorithm outperforms the conventional LASSO-ADMM algorithm and other existing algorithms in terms of reconstruction accuracy, and its sparsity order estimate is more accurate than the existing algorithms.


翻译:最小偏差缩缩和选择操作器(LASSO)是一种正规化技术,用于估计各种应用中出现的微弱兴趣信号,可以通过倍数的交替方向法(ADMM)来有效解决,该方法将被称为LASSO-ADMM算法。 选择身份化参数对LASSO-ADMM算法的性能有重大影响。然而,现有的LASSO-ADM算法中身份化参数的优化尚未解决。 为了优化这一正规化参数,我们建议通过反复更新LASSO-ADM算法中的正规化参数(ADMMM)来有效解决。此外,一种方法旨在反复更新身份化参数,在LASSO-ADMM算法的外推法值上增加外推法。 内部的LASSO-ADMM算法的零支持值被用于估计噪音变化, 并且使用噪音变异的阈值更新阈值的阈值阈值, 其最终的内算法值正在更新它的内程。

1
下载
关闭预览

相关内容

不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
71+阅读 · 2022年6月28日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
征稿 | CFP:Special Issue of NLP and KG(JCR Q2,IF2.67)
开放知识图谱
1+阅读 · 2022年4月4日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年9月30日
Arxiv
38+阅读 · 2020年3月10日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
VIP会员
相关资讯
征稿 | CFP:Special Issue of NLP and KG(JCR Q2,IF2.67)
开放知识图谱
1+阅读 · 2022年4月4日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员