A class of relative importance measures based on orthonormality transformation (OTMs), has been found to effectively approximate the General Dominance index (GD). In particular, Johnson's Relative Weight (RW) has been deemed the most successful OTM in the literature. Nevertheless, the theoretical foundation of the OTMs remains unclear. To further understand the OTMs, we provide a generalized framework that breaks down the OTM into two functional steps: orthogonalization and reallocation. To assess the impact of each step on the performance of OTMs, we conduct extensive Monte Carlo simulations under various predictors' correlation structures and response variable distributions. Our findings reveal that Johnson's minimal transformation consistently outperforms other common orthogonalization methods. We also summarize the performance of reallocation methods under four scenarios of predictors' correlation structures in terms of the first principal component and the variance inflation factor (VIF). This analysis provides guidelines for selecting appropriate reallocation methods in different scenarios, illustrated with real-world dataset examples. Our research offers a deeper understanding of OTMs and provides valuable insights for practitioners seeking to accurately measure variable importance in various modeling contexts.


翻译:一类基于正交变换的相对重要性度量(OTMs)已被发现能有效逼近广义优势指数(GD)。特别是,Johnson的相对权重(RW)在文献中被认为是最成功的OTM。然而,OTMs的理论基础仍不明确。为了进一步理解OTMs,我们提出了一个广义框架,将OTM分解为两个功能步骤:正交化与再分配。为了评估每个步骤对OTMs性能的影响,我们在多种预测变量相关结构和响应变量分布下进行了广泛的蒙特卡洛模拟。我们的研究结果表明,Johnson的最小化变换始终优于其他常见的正交化方法。我们还总结了在预测变量相关结构的四种情景下,基于第一主成分和方差膨胀因子(VIF)的再分配方法的性能表现。该分析为不同情景下选择合适的再分配方法提供了指导,并通过真实数据集示例加以说明。本研究深化了对OTMs的理解,并为从业者在各种建模情境中准确衡量变量重要性提供了有价值的见解。

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
A Survey on Deep Learning for Named Entity Recognition
Arxiv
26+阅读 · 2020年3月13日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员