项目名称: 神经网络随机学习算法的泛化性研究

项目编号: No.11301494

项目类型: 青年科学基金项目

立项/批准年度: 2014

项目学科: 数理科学和化学

项目作者: 张永全

作者单位: 中国计量学院

项目金额: 22万元

中文摘要: 算法的泛化能力是评价一个机器学习算法优劣的主要标准之一,也是当今机器学习研究的热点之一。本项目拟综合"信息论"、"逼近论"和"随机优化"等学科中的理论和方法,从随机逼近的角度,围绕神经网络随机学习算法泛化误差的上、下界估计和稀疏逼近等问题开展如下三方面研究:(1)利用函数逼近论中的正、逆定理、神经网络、随机逼近以及有关概率不等式,研究随机学习算法的泛化性与泛化误差的上、下界估计等问题;(2)利用压缩感知等方法研究神经网络的稀疏逼近。(3)神经网络随机学习算法的泛化结果在排序问题中的应用。本项目的研究意义在于采用随机逼近方法解决神经网络随机学习算法中的泛化误差估计和稀疏逼近等问题,不仅提高已有随机学习算法泛化误差的上界,而且给出该误差的下界估计,进而获得神经网络随机学习算法泛化性能的本质逼近阶,为神经网络学习算法的泛化性研究提供了新的研究途径和方法。

中文关键词: 神经网络;随机逼近;学习算法;泛化误差;

英文摘要: The generalization ability of algorithm is one of the main stand quality to evaluate learning algorithm, and is one of the hot topics in machine learning research.This project is combined with "information theory", "approximation theory" and "stochastic approximation" in subjects such as theory and method, from the view of stochastic approximation, around upper and lower bound of generalization error of neural network stochastic approximation, sparse approximation for the three aspects of the study are as follows: (1) upper and lower of neural network stochastic learing algorithm are estimated by using approximation theory 、neural network、stochastic approximation and some probabilities; (2) sparse approximation of neural netqork is studied by using the way of compressed sensing; (3) application of neural network stochastic learning algorithm will be used in ranking problem. This project aims to study generalization error of learning algorithm and sparse approximation. We not only improve the upper bound of generalization error, but also obtain the lower bound. And then we give the essential approximated order of generalization performance and provide research approach and method of neural network learning.

英文关键词: neural network;stochastic approximation;learning algorithm;generalization error;

成为VIP会员查看完整内容
2

相关内容

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。 最近十多年来,人工神经网络的研究工作不断深入,已经取得了很大的进展,其在模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题,表现出了良好的智能特性。
专知会员服务
22+阅读 · 2021年10月6日
专知会员服务
20+阅读 · 2021年8月24日
专知会员服务
18+阅读 · 2021年8月15日
【经典书】机器学习统计学,476页pdf
专知会员服务
120+阅读 · 2021年7月19日
专知会员服务
23+阅读 · 2021年6月8日
【2021新书】分布式优化,博弈和学习算法,227页pdf
专知会员服务
227+阅读 · 2021年5月25日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
【经典书】信息理论、推理和学习算法,640页pdf
专知会员服务
82+阅读 · 2020年9月21日
神经网络,凉了?
CVer
2+阅读 · 2022年3月16日
可解释性:对神经网络中层特征复杂度的解释与拆分
夕小瑶的卖萌屋
1+阅读 · 2021年7月29日
可解释的机器学习
平均机器
25+阅读 · 2019年2月25日
从最优化的角度看待 Softmax 损失函数
极市平台
31+阅读 · 2019年2月21日
分享神经网络中设计loss function的一些技巧
极市平台
35+阅读 · 2019年1月22日
贝叶斯机器学习前沿进展
机器学习研究会
21+阅读 · 2018年1月21日
基于信息理论的机器学习
专知
21+阅读 · 2017年11月23日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
38+阅读 · 2021年8月31日
Arxiv
10+阅读 · 2020年11月26日
小贴士
相关VIP内容
专知会员服务
22+阅读 · 2021年10月6日
专知会员服务
20+阅读 · 2021年8月24日
专知会员服务
18+阅读 · 2021年8月15日
【经典书】机器学习统计学,476页pdf
专知会员服务
120+阅读 · 2021年7月19日
专知会员服务
23+阅读 · 2021年6月8日
【2021新书】分布式优化,博弈和学习算法,227页pdf
专知会员服务
227+阅读 · 2021年5月25日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
【经典书】信息理论、推理和学习算法,640页pdf
专知会员服务
82+阅读 · 2020年9月21日
相关资讯
神经网络,凉了?
CVer
2+阅读 · 2022年3月16日
可解释性:对神经网络中层特征复杂度的解释与拆分
夕小瑶的卖萌屋
1+阅读 · 2021年7月29日
可解释的机器学习
平均机器
25+阅读 · 2019年2月25日
从最优化的角度看待 Softmax 损失函数
极市平台
31+阅读 · 2019年2月21日
分享神经网络中设计loss function的一些技巧
极市平台
35+阅读 · 2019年1月22日
贝叶斯机器学习前沿进展
机器学习研究会
21+阅读 · 2018年1月21日
基于信息理论的机器学习
专知
21+阅读 · 2017年11月23日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员