Sparse Group LASSO (SGL) is a regularized model for high-dimensional linear regression problems with grouped covariates. SGL applies $l_1$ and $l_2$ penalties on the individual predictors and group predictors, respectively, to guarantee sparse effects both on the inter-group and within-group levels. In this paper, we apply the approximate message passing (AMP) algorithm to efficiently solve the SGL problem under Gaussian random designs. We further use the recently developed state evolution analysis of AMP to derive an asymptotically exact characterization of SGL solution. This allows us to conduct multiple fine-grained statistical analyses of SGL, through which we investigate the effects of the group information and $\gamma$ (proportion of $\ell_1$ penalty). With the lens of various performance measures, we show that SGL with small $\gamma$ benefits significantly from the group information and can outperform other SGL (including LASSO) or regularized models which does not exploit the group information, in terms of the recovery rate of signal, false discovery rate and mean squared error.


翻译:LASSO(SGL)是一个常规化的模型,用于处理与组合式共变体有关的高维线性回归问题。SGL对单个预测器和组内预测器分别适用1美元和2美元罚款,以保障对群体间和组内水平的微弱影响。在本文中,我们使用大致信息传递(AMP)算法,以便在高斯随机设计下有效解决SGL问题。我们进一步使用最近开发的AMP国家进化分析,以得出对SGL解决方案的简单准确定性。这使我们能够对SGL进行多次细微的统计分析,通过这种分析,我们调查小组信息的效果和$\gamma$(1美元罚款的比重)。从各种性能措施的角度来看,我们显示小的美元SGL从小组信息中大得益,并且可以超越其他SGL(包括LASSO)或常规化模型,这些模型没有从信号、虚假发现率和平均平方误差的回收率中利用小组信息。

0
下载
关闭预览

相关内容

Group一直是研究计算机支持的合作工作、人机交互、计算机支持的协作学习和社会技术研究的主要场所。该会议将社会科学、计算机科学、工程、设计、价值观以及其他与小组工作相关的多个不同主题的工作结合起来,并进行了广泛的概念化。官网链接:https://group.acm.org/conferences/group20/
专知会员服务
122+阅读 · 2021年8月4日
【经典书】模式识别导论,561页pdf
专知会员服务
81+阅读 · 2021年6月30日
【干货书】统计学习导论,431页pdf讲解数据科学知识
专知会员服务
77+阅读 · 2021年6月7日
专知会员服务
50+阅读 · 2020年12月14日
【经典书】机器学习高斯过程,266页pdf
专知会员服务
228+阅读 · 2020年5月2日
量化金融强化学习论文集合
专知
13+阅读 · 2019年12月18日
已删除
将门创投
18+阅读 · 2019年2月18日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
xgboost特征选择
数据挖掘入门与实战
39+阅读 · 2017年10月5日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年9月3日
VIP会员
相关资讯
量化金融强化学习论文集合
专知
13+阅读 · 2019年12月18日
已删除
将门创投
18+阅读 · 2019年2月18日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
xgboost特征选择
数据挖掘入门与实战
39+阅读 · 2017年10月5日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员