成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
泛化误差
关注
107
学习方法的泛化能力(Generalization Error)是由该方法学习到的模型对未知数据的预测能力,是学习方法本质上重要的性质。现实中采用最多的办法是通过测试泛化误差来评价学习方法的泛化能力。泛化误差界刻画了学习算法的经验风险与期望风险之间偏差和收敛速度。一个机器学习的泛化误差(Generalization Error),是一个描述学生机器在从样品数据中学习之后,离教师机器之间的差距的函数。
综合
百科
VIP
热门
动态
论文
精华
A Theoretical Framework for Data Efficient Multi-Source Transfer Learning Based on Cramér-Rao Bound
Arxiv
0+阅读 · 2月25日
Generalization error bound for denoising score matching under relaxed manifold assumption
Arxiv
0+阅读 · 2月25日
Learning Theory for Kernel Bilevel Optimization
Arxiv
0+阅读 · 2月12日
Error dynamics of mini-batch gradient descent with random reshuffling for least squares regression
Arxiv
0+阅读 · 2月3日
Understanding the Generalization Error of Markov algorithms through Poissonization
Arxiv
0+阅读 · 2月11日
Generalization Error of $f$-Divergence Stabilized Algorithms via Duality
Arxiv
0+阅读 · 2月20日
DeepONet for Solving Nonlinear Partial Differential Equations with Physics-Informed Training
Arxiv
0+阅读 · 1月22日
Generalization of the Gibbs algorithm with high probability at low temperatures
Arxiv
0+阅读 · 2月16日
Generalization of the Gibbs algorithm with high probability at low temperatures
Arxiv
0+阅读 · 2月24日
Generalization of the Gibbs algorithm with high probability at low temperatures
Arxiv
0+阅读 · 2月21日
CLaRe: Compact near-lossless Latent Representations of High-Dimensional Object Data
Arxiv
0+阅读 · 2月10日
Understanding the Capabilities and Limitations of Weak-to-Strong Generalization
Arxiv
0+阅读 · 2月3日
Occam Gradient Descent
Arxiv
0+阅读 · 2024年12月30日
A Two-Scale Complexity Measure for Deep Learning Models
Arxiv
0+阅读 · 1月9日
A Two-Scale Complexity Measure for Deep Learning Models
Arxiv
0+阅读 · 1月8日
参考链接
父主题
机器学习
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top