Compositional data arise in many real-life applications and versatile methods for properly analyzing this type of data in the regression context are needed. This paper, through use of the $\alpha$-transformation, extends the classical $k$-$NN$ regression to what is termed $\alpha$-$k$-$NN$ regression, yielding a highly flexible non-parametric regression model for compositional data. Unlike many of the recommended regression models for compositional data, zeros values (which commonly occur in practice) are not problematic and they can be incorporated into the proposed model without modification. Extensive simulation studies and real-life data analyses highlight the advantage of using $\alpha$-$k$-$NN$ regression for complex relationships between the compositional response data and Euclidean predictor variables. Both suggest that $\alpha$-$k$-$NN$ regression can lead to more accurate predictions compared to current regression models which assume a, sometimes restrictive, parametric relationship with the predictor variables. In addition, the proposed regression enjoys a high computational efficiency rendering it highly attractive for use with large scale, massive, or big data.


翻译:许多实际应用和在回归情况下适当分析这类数据的多种方法都产生了构成数据。本文件通过使用alpha$转换法,将古典美元-NN$回归法延伸至所谓的alpha美元-k美元-NN美元回归法,为构成数据生成了一个非常灵活的非参数回归模型。与许多建议的构成数据回归模型不同,零值(通常在实践中发生)并不成问题,可以不作修改地纳入拟议的模型。广泛的模拟研究和实际数据分析强调使用$alpha美元-k$-NNN美元回归法对于构成响应数据和Euclidean预测变量之间的复杂关系的好处。两者都表明,与目前的回归模型相比,零值(通常在实践中发生)可以导致更准确的预测,因为目前的回归模型假定了与预测或变量之间的一种有时限制性的、准值关系。此外,拟议的回归法具有很高的计算效率,因此对于大规模数据或大数据的使用具有很高的吸引力。

0
下载
关闭预览

相关内容

【干货书】真实机器学习,264页pdf,Real-World Machine Learning
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Random and quasi-random designs in group testing
Arxiv
0+阅读 · 2021年1月15日
Arxiv
0+阅读 · 2021年1月14日
Arxiv
0+阅读 · 2021年1月14日
Residual Policy Learning
Arxiv
4+阅读 · 2018年12月15日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员