项目名称: 前馈神经网络容错学习算法的设计与确定型收敛性研究

项目编号: No.61305075

项目类型: 青年科学基金项目

立项/批准年度: 2014

项目学科: 自动化技术、计算机技术

项目作者: 王健

作者单位: 中国石油大学(华东)

项目金额: 25万元

中文摘要: 本项目旨在设计容错性更强的前馈神经网络学习算法并研究其确定型收敛性。 为提高网络泛化能力,人们常常在传统神经网络学习中加入噪声、故障及正则项,由此得到的容错学习算法是神经网络领域的研究热点之一。一方面,容错学习算法本质上是一种随机型算法,现有研究主要局限于基于L2正则子算法的渐近收敛性分析,能否得到算法在某些特定条件下的确定型收敛性是值得研究的问题。另一方面,L1/2 正则化理论是国际正则化领域的研究焦点之一,鉴于L1/2正则子较L2正则子具有更易产生稀疏解的优势,设计基于L1/2正则子的高效容错学习算法并研究其确定型收敛性是有意义的问题。 本项目拟研究不同噪声或故障对神经网络学习算法的影响,探讨基于L2正则子容错算法的确定型收敛性;借助光滑函数逼近或次梯度法解决L1/2正则子带来的奇点问题;研究基于L1/2正则子容错算法的误差函数单调性及权值有界性,给出不同权值更新模式下的确定收敛性。

中文关键词: 前馈神经网络;容错性;正则子;Group Lasso;收敛性

英文摘要: The main purpose of this project is to design feedforward neural networks with high fault tolerance and analyzes its deterministic convergence. Many researchers prefer to add noise, fault and regularization term in feedforward neural networks to improve the generalization. Fault tolerant learning method is then one of the popular issues for artificial neural networks. On the one hand, fault tolerant learning method is essentially one of stochastic algorithms, the present research focuses on the asymptotic convergence analysis which based on L2 regularizer. Thus, it is valuable to discuss the deterministic convergence of fault tolerant neural networks under some special conditions. On the other hand, L1/2 regularization method is one of the hot issues in international regularization field. Compare to L2 regularizer, L1/2 regularizer is easy to obtain sparse solutions. Then, it is interesting to design more efficient fault tolerant algorithms for feedforward neural networks based on L1/2 regularizer and study the corresponding deterministic convergence. This project attempts to analyze the impact of noise or fault on neural networks, presents the deterministic convergence of fault tolerant learning for feedforward neural networks based on L2 regularizer. To solve the singularity in the training process, two kinds

英文关键词: feedforward neural networks;fault tolerance;regularizer;Group Lasso;convergence

成为VIP会员查看完整内容
0

相关内容

前馈神经网络(Feedforward Neural Network)是设计的第一种也是最简单的人工神经网络。在此网络中,信息仅在一个方向上移动,即从输入节点向前经过隐藏节点(如果有)并到达输出节点。 网络中没有周期或循环。
WSDM 2022 | 基于图神经网络的协同过滤设计空间研究
专知会员服务
36+阅读 · 2022年1月3日
专知会员服务
20+阅读 · 2021年8月24日
专知会员服务
11+阅读 · 2021年7月27日
专知会员服务
24+阅读 · 2021年7月22日
【2021新书】分布式优化,博弈和学习算法,227页pdf
专知会员服务
227+阅读 · 2021年5月25日
最新《非凸优化理论》进展书册,79页pdf
专知会员服务
108+阅读 · 2020年12月18日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
30+阅读 · 2020年12月14日
大规模时间序列分析框架的研究与实现,计算机学报
专知会员服务
58+阅读 · 2020年7月13日
专知会员服务
73+阅读 · 2020年5月21日
神经网络,凉了?
PaperWeekly
0+阅读 · 2022年3月16日
类脑超大规模深度神经网络系统
专知
2+阅读 · 2022年1月21日
7句话,预见2032年!萨提亚·纳德拉关于未来十年的判断
微软研究院AI头条
1+阅读 · 2021年12月14日
微软2022秋招常见问题解答!
微软招聘
0+阅读 · 2021年8月24日
可解释性:对神经网络中层特征复杂度的解释与拆分
夕小瑶的卖萌屋
1+阅读 · 2021年7月29日
图神经网络火了?谈下它的普适性与局限性
机器之心
21+阅读 · 2019年7月29日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月15日
Arxiv
15+阅读 · 2021年2月19日
Arxiv
10+阅读 · 2020年6月12日
Arxiv
27+阅读 · 2018年4月12日
小贴士
相关VIP内容
WSDM 2022 | 基于图神经网络的协同过滤设计空间研究
专知会员服务
36+阅读 · 2022年1月3日
专知会员服务
20+阅读 · 2021年8月24日
专知会员服务
11+阅读 · 2021年7月27日
专知会员服务
24+阅读 · 2021年7月22日
【2021新书】分布式优化,博弈和学习算法,227页pdf
专知会员服务
227+阅读 · 2021年5月25日
最新《非凸优化理论》进展书册,79页pdf
专知会员服务
108+阅读 · 2020年12月18日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
30+阅读 · 2020年12月14日
大规模时间序列分析框架的研究与实现,计算机学报
专知会员服务
58+阅读 · 2020年7月13日
专知会员服务
73+阅读 · 2020年5月21日
相关资讯
神经网络,凉了?
PaperWeekly
0+阅读 · 2022年3月16日
类脑超大规模深度神经网络系统
专知
2+阅读 · 2022年1月21日
7句话,预见2032年!萨提亚·纳德拉关于未来十年的判断
微软研究院AI头条
1+阅读 · 2021年12月14日
微软2022秋招常见问题解答!
微软招聘
0+阅读 · 2021年8月24日
可解释性:对神经网络中层特征复杂度的解释与拆分
夕小瑶的卖萌屋
1+阅读 · 2021年7月29日
图神经网络火了?谈下它的普适性与局限性
机器之心
21+阅读 · 2019年7月29日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员