成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
PCA
关注
3
在统计中,主成分分析(PCA)是一种通过最大化每个维度的方差来将较高维度空间中的数据投影到较低维度空间中的方法。给定二维,三维或更高维空间中的点集合,可以将“最佳拟合”线定义为最小化从点到线的平均平方距离的线。可以从垂直于第一条直线的方向类似地选择下一条最佳拟合线。重复此过程会产生一个正交的基础,其中数据的不同单个维度是不相关的。 这些基向量称为主成分。
综合
百科
VIP
热门
动态
论文
精华
Rethinking Decoders for Transformer-based Semantic Segmentation: A Compression Perspective
Arxiv
0+阅读 · 1月14日
Rethinking Decoders for Transformer-based Semantic Segmentation: A Compression Perspective
Arxiv
0+阅读 · 1月13日
Sparse PCA: Phase Transitions in the Critical Sparsity Regime
Arxiv
0+阅读 · 2024年12月30日
Variational Bayesian Inference for Tensor Robust Principal Component Analysis
Arxiv
0+阅读 · 2024年12月25日
Robust functional PCA for density data
Arxiv
0+阅读 · 2024年12月26日
Robust functional PCA for density data
Arxiv
0+阅读 · 1月2日
Revisiting PCA for time series reduction in temporal dimension
Arxiv
0+阅读 · 2024年12月27日
$O(k)$-Equivariant Dimensionality Reduction on Stiefel Manifolds
Arxiv
0+阅读 · 1月8日
Mining Intraday Risk Factor Collections via Hierarchical Reinforcement Learning based on Transferred Options
Arxiv
0+阅读 · 1月13日
Exploring Narrative Clustering in Large Language Models: A Layerwise Analysis of BERT
Arxiv
0+阅读 · 1月14日
Is completeness necessary? Estimation in nonidentified linear models
Arxiv
0+阅读 · 1月6日
Overlapping Schwarz Preconditioners for Randomized Neural Networks with Domain Decomposition
Arxiv
0+阅读 · 2024年12月26日
Audio-Language Datasets of Scenes and Events: A Survey
Arxiv
0+阅读 · 1月8日
Learnable Scaled Gradient Descent for Guaranteed Robust Tensor PCA
Arxiv
0+阅读 · 1月8日
Fair CoVariance Neural Networks
Arxiv
0+阅读 · 1月14日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top