项目名称: 回归函数梯度的随机逼近快速算法研究及应用

项目编号: No.11201420

项目类型: 青年科学基金项目

立项/批准年度: 2013

项目学科: 数理科学和化学

项目作者: 董雪梅

作者单位: 浙江工商大学

项目金额: 22万元

中文摘要: 回归函数的梯度能够同时提供高维数据特征变量选择和维数约简信息。本项目拟综合利用函数逼近论、概率论、泛函分析和最优化理论中的相关方法,设计流形假设下半监督函数梯度学习算法,研究其推广性能;研究及相依同分布数据下的函数梯度学习算法的一致性与推广误差估计;研究球面上的核函数构造与性质,对基于该类型数据的梯度学习进行误差分析。在以上研究的基础上发展和完善基于不同类型数据的回归函数梯度逼近理论,设计快速学习算法,建立数据分布规律与学习算法的推广性能之间的关系。将相关算法应用于遥感图像数据和三维人脸数据的维数约简中。

中文关键词: 学习算法;随机逼近;正则化;;

英文摘要: The gradient of regression function can provide feature variable selection and dimension reduction information for high dimensional data at the same time. This project will utilize related methods in function approximation theory, probability theory, functional analysis, and optimization theory, etc., to design semi-supervised learning algorihms for the gradient under manifold assumption and study their genaralization properties. Consider the consistency and genaralization error of learning gradient algorithms based on dependent and identical data. Study construction and properties of kernel functions based on spherical data and analysis the generalization error of the gradient learning algorithms from this kind of data. On the basis of the above studies,develop and improve the approximation theory for gradient function based on different types of data, design fast learning algorithms, establish the relationship between the data distribution and the generalization performance of the learning algorithms.Using related algorithms to the dimension reduction for remote sensing image data and 3D face data.

英文关键词: learing algorithm;random approximation;regularization;;

成为VIP会员查看完整内容
0

相关内容

专知会员服务
12+阅读 · 2021年10月12日
专知会员服务
47+阅读 · 2021年8月29日
专知会员服务
16+阅读 · 2021年8月6日
专知会员服务
21+阅读 · 2021年7月31日
专知会员服务
39+阅读 · 2021年6月2日
【2021新书】分布式优化,博弈和学习算法,227页pdf
专知会员服务
216+阅读 · 2021年5月25日
专知会员服务
17+阅读 · 2021年5月16日
【经典书】数理统计学,142页pdf
专知会员服务
94+阅读 · 2021年3月25日
专知会员服务
29+阅读 · 2020年7月31日
神经网络,凉了?
PaperWeekly
0+阅读 · 2022年3月16日
梯度下降(Gradient Descent)的收敛性分析
PaperWeekly
2+阅读 · 2022年3月10日
交替方向乘子法(ADMM)算法原理详解
PaperWeekly
3+阅读 · 2022年1月21日
输入梯度惩罚与参数梯度惩罚的一个不等式
PaperWeekly
0+阅读 · 2021年12月27日
从泰勒展开来看梯度下降算法
深度学习每日摘要
13+阅读 · 2019年4月9日
Meta-Learning 元学习:学会快速学习
极市平台
74+阅读 · 2018年12月19日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Convex-Concave Min-Max Stackelberg Games
Arxiv
0+阅读 · 2022年4月19日
Arxiv
0+阅读 · 2022年4月17日
ResT V2: Simpler, Faster and Stronger
Arxiv
0+阅读 · 2022年4月15日
Arxiv
15+阅读 · 2021年2月19日
Arxiv
26+阅读 · 2020年2月21日
Arxiv
10+阅读 · 2018年2月17日
小贴士
相关VIP内容
专知会员服务
12+阅读 · 2021年10月12日
专知会员服务
47+阅读 · 2021年8月29日
专知会员服务
16+阅读 · 2021年8月6日
专知会员服务
21+阅读 · 2021年7月31日
专知会员服务
39+阅读 · 2021年6月2日
【2021新书】分布式优化,博弈和学习算法,227页pdf
专知会员服务
216+阅读 · 2021年5月25日
专知会员服务
17+阅读 · 2021年5月16日
【经典书】数理统计学,142页pdf
专知会员服务
94+阅读 · 2021年3月25日
专知会员服务
29+阅读 · 2020年7月31日
相关资讯
神经网络,凉了?
PaperWeekly
0+阅读 · 2022年3月16日
梯度下降(Gradient Descent)的收敛性分析
PaperWeekly
2+阅读 · 2022年3月10日
交替方向乘子法(ADMM)算法原理详解
PaperWeekly
3+阅读 · 2022年1月21日
输入梯度惩罚与参数梯度惩罚的一个不等式
PaperWeekly
0+阅读 · 2021年12月27日
从泰勒展开来看梯度下降算法
深度学习每日摘要
13+阅读 · 2019年4月9日
Meta-Learning 元学习:学会快速学习
极市平台
74+阅读 · 2018年12月19日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员