成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
经验风险
关注
0
经验风险是对训练集中的所有样本点损失函数的平均最小化。经验风险越小说明模型f(X)对训练集的拟合程度越好。
综合
百科
VIP
热门
动态
论文
精华
为什么深度学习是非参数的?
THU数据派
1+阅读 · 2022年3月29日
Arxiv'21 | Graph Federated Learning
图与推荐
0+阅读 · 2021年11月17日
2840页博士论文!《矩阵理论:优化、集中和算法》,德州大学奥斯汀Zhao Song
专知
1+阅读 · 2021年1月25日
篇幅达2840页、目录就有31页,这位华人小哥的博士论文堪比教材
机器之心
0+阅读 · 2021年1月25日
李飞飞点赞「ARM」:一种让模型快速适应数据变化的元学习方法 | 开源
量子位
1+阅读 · 2020年11月6日
【损失函数】常见的损失函数(loss function)总结
深度学习自然语言处理
3+阅读 · 2020年5月19日
姚班天才少年鬲融凭非凸优化研究成果获得斯隆研究奖
算法与数学之美
2+阅读 · 2019年4月9日
【学界】NIPS 2018 | 作为多目标优化的多任务学习:寻找帕累托最优解
GAN生成式对抗网络
9+阅读 · 2018年11月2日
NIPS 2018 | 作为多目标优化的多任务学习:寻找帕累托最优解
极市平台
19+阅读 · 2018年10月29日
NIPS 2018 | 作为多目标优化的多任务学习:寻找帕累托最优解
机器之心
3+阅读 · 2018年10月27日
观点 | 在工程领域中,机器学习的数学理论基础尤为重要
机器之心
2+阅读 · 2018年8月15日
深度 | L2正则化和对抗鲁棒性的关系
机器之心
1+阅读 · 2018年8月7日
敲重点!一文详解解决对抗性样本问题的新方法——L2正则化法
人工智能头条
3+阅读 · 2018年7月16日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
机器学习入门概览
大数据技术
1+阅读 · 2018年6月28日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top