项目名称: 基于相依数据的梯度学习理论研究

项目编号: No.11626107

项目类型: 专项基金项目

立项/批准年度: 2016

项目学科: 数理科学和化学

项目作者: 宋必芹

作者单位: 华中农业大学

项目金额: 3万元

中文摘要: 大数据背景下“去粗取精”的过程包括“下采样学习”减少数据个数和“子空间学习”降低数据维数两方面。一方面,经典的学习理论及算法往往假设数据独立同分布,但实际应用中该假设是非常强或不满足的,研究相依数据下的学习理论及算法不仅是对学习理论的推广和完善,也可为下采样学习提供采样理论基础和依据,进而为解决实际问题提供更加合理的方法。另一方面,梯度学习在进行分类、回归经典任务的同时还可进行变量选择和坐标协方差分析,为子空间学习提供新的方法。为此,本项目拟在学习理论的基础上利用逼近论和混合序列分析理论及方法,对相依数据下梯度学习算法的稳定性和推广误差等理论进行研究。旨在建立数据相依下梯度学习正则化算法的稳定性理论框架;建立具有较好学习性能(推广性、稳定性)的正则化梯度学习算法,并将其用到实际应用中的数据挖掘问题中,特别是为海量数据的挖掘提供新的研究思路。

中文关键词: 学习理论;推广误差;正则化算法;;

英文摘要: Discarding the dross and selecting the essential for big data include down-sampling learning and subspace learning two aspects. On one hand, classical learning theory and algorithm tend to assume that the data is i.i.d., however, the assumption is not hol

英文关键词: learning theory;generalization error;regularized algorithm;;

成为VIP会员查看完整内容
1

相关内容

【新书稿】数据科学的谱方法:统计的视角,168页pdf
专知会员服务
54+阅读 · 2021年10月28日
专知会员服务
18+阅读 · 2021年8月15日
专知会员服务
138+阅读 · 2021年8月12日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
28+阅读 · 2021年6月7日
专知会员服务
19+阅读 · 2020年12月9日
专知会员服务
71+阅读 · 2020年12月7日
【ICML2020】机器学习无参数在线优化,294页ppt
专知会员服务
54+阅读 · 2020年8月1日
专知会员服务
29+阅读 · 2020年7月31日
梯度下降(Gradient Descent)的收敛性分析
PaperWeekly
2+阅读 · 2022年3月10日
【博士论文】开放环境下的度量学习研究
专知
6+阅读 · 2021年12月4日
一文读懂线性回归、岭回归和Lasso回归
CSDN
33+阅读 · 2019年10月13日
基于数据的分布式鲁棒优化算法及其应用【附PPT与视频资料】
人工智能前沿讲习班
26+阅读 · 2018年12月13日
从最大似然到EM算法:一致的理解方式
PaperWeekly
18+阅读 · 2018年3月19日
贝叶斯机器学习前沿进展
机器学习研究会
20+阅读 · 2018年1月21日
基于信息理论的机器学习
专知
21+阅读 · 2017年11月23日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
12+阅读 · 2021年6月29日
小贴士
相关主题
相关VIP内容
【新书稿】数据科学的谱方法:统计的视角,168页pdf
专知会员服务
54+阅读 · 2021年10月28日
专知会员服务
18+阅读 · 2021年8月15日
专知会员服务
138+阅读 · 2021年8月12日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
28+阅读 · 2021年6月7日
专知会员服务
19+阅读 · 2020年12月9日
专知会员服务
71+阅读 · 2020年12月7日
【ICML2020】机器学习无参数在线优化,294页ppt
专知会员服务
54+阅读 · 2020年8月1日
专知会员服务
29+阅读 · 2020年7月31日
相关资讯
梯度下降(Gradient Descent)的收敛性分析
PaperWeekly
2+阅读 · 2022年3月10日
【博士论文】开放环境下的度量学习研究
专知
6+阅读 · 2021年12月4日
一文读懂线性回归、岭回归和Lasso回归
CSDN
33+阅读 · 2019年10月13日
基于数据的分布式鲁棒优化算法及其应用【附PPT与视频资料】
人工智能前沿讲习班
26+阅读 · 2018年12月13日
从最大似然到EM算法:一致的理解方式
PaperWeekly
18+阅读 · 2018年3月19日
贝叶斯机器学习前沿进展
机器学习研究会
20+阅读 · 2018年1月21日
基于信息理论的机器学习
专知
21+阅读 · 2017年11月23日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员