Microarray studies, in order to identify genes associated with an outcome of interest, usually produce noisy measurements for a large number of gene expression features from a small number of subjects. One common approach to analyzing such high-dimensional data is to use linear errors-in-variables models; however, current methods for fitting such models are computationally expensive. In this paper, we present two efficient screening procedures, namely corrected penalized marginal screening and corrected sure independence screening, to reduce the number of variables for final model building. Both screening procedures are based on fitting corrected marginal regression models relating the outcome to each contaminated covariate separately, which can be computed efficiently even with a large number of features. Under mild conditions, we show that these procedures achieve screening consistency and reduce the number of features considerably, even when the number of covariates grows exponentially with the sample size. Additionally, if the true covariates are weakly correlated, corrected penalized marginal screening can achieve full variable selection consistency. Through simulation studies and an analysis of gene expression data for bone mineral density of Norwegian women, we demonstrate that the two new screening procedures make estimation of linear errors-in-variables models computationally scalable in high dimensional settings, and improve finite sample estimation and selection performance compared with estimators that do not employ a screening stage.


翻译:为了确定与感兴趣结果相关的基因,微微微研究通常对少数学科的大量基因表达特征进行噪音测量。分析这种高维数据的一个常见方法是使用线性误差模型;然而,目前安装这种模型的方法计算成本很高。我们在本文件中提出两种有效的筛选程序,即纠正受惩罚的边际筛选和纠正的确保独立筛选,以减少最后建模的变量数量。两种筛选程序都基于与每个被污染的共变体结果分别相关的经适当修正的边际回归模型,这些模型可以有效计算,即使有大量特征也能有效计算。在温和的条件下,我们表明这些程序实现了筛选的一致性,并大大减少了特征的数量,即使共变数随着抽样规模的急剧增长而增长。此外,如果真实的共变差关系薄弱,经纠正的边际筛选可以达到完全的变量选择一致性。通过模拟研究和分析挪威妇女骨质矿密度的基因表达数据,我们证明两种新的筛选程序对线性误差可变模型进行了估计,即使在大量特征的情况下,也可以有效地计算。在高维度情况下,我们表明这两种新的筛选程序可以改进高维度和可测度的筛选阶段,从而改进了可测测测度和测测测度和测度。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
专知会员服务
158+阅读 · 2020年1月16日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
已删除
将门创投
5+阅读 · 2019年5月5日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
3+阅读 · 2018年2月24日
Arxiv
3+阅读 · 2017年12月14日
VIP会员
相关资讯
已删除
将门创投
5+阅读 · 2019年5月5日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员