Archetypal analysis (AA) was originally proposed in 1994 by Adele Cutler and Leo Breiman as a computational procedure for extracting distinct aspects, so-called archetypes, from observations, with each observational record approximated as a mixture (i.e., convex combination) of these archetypes. AA thereby provides straightforward, interpretable, and explainable representations for feature extraction and dimensionality reduction, facilitating the understanding of the structure of high-dimensional data and enabling wide applications across the sciences. However, AA also faces challenges, particularly as the associated optimization problem is non-convex. This is the first survey that provides researchers and data mining practitioners with an overview of the methodologies and opportunities that AA offers, surveying the many applications of AA across disparate fields of science, as well as best practices for modeling data with AA and its limitations. The survey concludes by explaining crucial future research directions concerning AA.


翻译:原型分析(Archetypal Analysis, AA)最初由Adele Cutler与Leo Breiman于1994年提出,是一种从观测数据中提取独特方面(即所谓原型)的计算方法,其中每个观测记录均可近似表示为这些原型的混合(即凸组合)。因此,AA为特征提取与降维提供了直观、可解释且可说明的表征方式,有助于理解高维数据的结构,并促成了其在各科学领域的广泛应用。然而,AA也面临挑战,尤其是其相关的优化问题具有非凸性。本文是首篇为研究人员与数据挖掘实践者系统梳理AA所提供的方法体系与应用前景的综述性文章,全面考察了AA在众多科学领域中的广泛应用,以及使用AA进行数据建模的最佳实践与其局限性。最后,本文通过阐述AA未来关键的研究方向作为总结。

0
下载
关闭预览

相关内容

【NeurIPS2023】因果成分分析
专知会员服务
41+阅读 · 2023年11月13日
专知会员服务
50+阅读 · 2021年6月2日
【NeurIPS2019】图变换网络:Graph Transformer Network
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
997篇-历史最全生成对抗网络(GAN)论文串烧
深度学习与NLP
16+阅读 · 2018年6月26日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 12月20日
Arxiv
0+阅读 · 12月19日
VIP会员
相关资讯
【NeurIPS2019】图变换网络:Graph Transformer Network
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
997篇-历史最全生成对抗网络(GAN)论文串烧
深度学习与NLP
16+阅读 · 2018年6月26日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员