项目名称: 反馈神经网络对非线性动力系统的本质逼近能力研究

项目编号: No.11261042

项目类型: 地区科学基金项目

立项/批准年度: 2013

项目学科: 数理科学和化学

项目作者: 李风军

作者单位: 宁夏大学

项目金额: 45万元

中文摘要: 目前关于反馈神经网络对非线性动力系统逼近能力的研究基本上集中于稠密性问题,即反馈网络逼近的定性问题。但是,从应用角度来看,反馈神经网络逼近动力系统的定量研究和算法尤为重要。有关反馈神经网络逼近的定量研究, 特别是反映网络的逼近速度与网络拓扑结构之间关系的研究, 最近开始引起人们的强烈关注。本项目将深入研究反馈神经网络对非线性动力系统的本质逼近能力。具体任务包括:设计具有高精度逼近能力的反馈神经网络新模型和新算法;研究该类神经网络对非线性动力系统逼近速度的上、下界估计和本质逼近阶估计;刻画所构造的神经网络对非线性动力系统的本质逼近能力的极限行为与网络拓扑结构、动力系统演化规律的空间性质(元规则的空间性质、支持度及置信度等)之间的相依关系;构造具有较高逼近能力的,结构更简单化的反馈神经网络新模型。另外,设计求解这些模型的优化算法时,必须设计高效、可信的智能优化算法,这是目前相关研究所少有的。

中文关键词: 神经网络;反馈神经网络;非线性动力系统;逼近;

英文摘要: Nonlinear science is a rapidly developing research field. Much attention has been paid all over the world to its promising. Neural networks, which is one of active branches in nonlinear science, has drawn great attention. In application, it involves various areas in natural and social science. Now it has become a powerful tool of exploring and solving many complicated problems in natural science and engineering. In this project, we make a systematic investigation into approximation ability of recurrent neural networks. Neural networks represent a class of functions for the efficient identification and forecasting of dynamical systems. The method of recurrent neural networks approximation is used in nonlinear systems. So far , the study of approximation ability that recurrent neural network works on the nonlinear dynamical systems are basically concentrated on the dense problems,that is, the qualitative issues of the recurrent network approximation. However,from the application point of view, quantitative study of recurrent neural network approximation of dynamical systems and relative algorithms are particularly important. The quantitative study of recurrent neural network approximation, especially the study of reflecting the relationship between network's approximation speed and network topology structure,

英文关键词: recurrent neural network;neural network;nonlinear dynamical system;approxximation;

成为VIP会员查看完整内容
0

相关内容

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。 最近十多年来,人工神经网络的研究工作不断深入,已经取得了很大的进展,其在模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题,表现出了良好的智能特性。
专知会员服务
19+阅读 · 2021年9月14日
逆优化: 理论与应用
专知会员服务
36+阅读 · 2021年9月13日
专知会员服务
23+阅读 · 2021年8月1日
专知会员服务
24+阅读 · 2021年7月22日
专知会员服务
40+阅读 · 2021年6月2日
【2021新书】分布式优化,博弈和学习算法,227页pdf
专知会员服务
227+阅读 · 2021年5月25日
专知会员服务
19+阅读 · 2020年12月9日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
最新《生成式对抗网络数学导论》,30页pdf
专知会员服务
77+阅读 · 2020年9月3日
神经网络,凉了?
CVer
2+阅读 · 2022年3月16日
梯度下降(Gradient Descent)的收敛性分析
PaperWeekly
2+阅读 · 2022年3月10日
神经网络的基础数学,95页pdf
专知
24+阅读 · 2022年1月23日
可解释性:对神经网络中层特征复杂度的解释与拆分
夕小瑶的卖萌屋
1+阅读 · 2021年7月29日
基于规则的建模方法的可解释性及其发展
专知
4+阅读 · 2021年6月23日
一文搞懂反向传播
机器学习与推荐算法
17+阅读 · 2020年3月12日
脉冲神经网络与小样本学习【附PPT】
人工智能前沿讲习班
46+阅读 · 2019年2月1日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
小贴士
相关VIP内容
专知会员服务
19+阅读 · 2021年9月14日
逆优化: 理论与应用
专知会员服务
36+阅读 · 2021年9月13日
专知会员服务
23+阅读 · 2021年8月1日
专知会员服务
24+阅读 · 2021年7月22日
专知会员服务
40+阅读 · 2021年6月2日
【2021新书】分布式优化,博弈和学习算法,227页pdf
专知会员服务
227+阅读 · 2021年5月25日
专知会员服务
19+阅读 · 2020年12月9日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
最新《生成式对抗网络数学导论》,30页pdf
专知会员服务
77+阅读 · 2020年9月3日
相关资讯
神经网络,凉了?
CVer
2+阅读 · 2022年3月16日
梯度下降(Gradient Descent)的收敛性分析
PaperWeekly
2+阅读 · 2022年3月10日
神经网络的基础数学,95页pdf
专知
24+阅读 · 2022年1月23日
可解释性:对神经网络中层特征复杂度的解释与拆分
夕小瑶的卖萌屋
1+阅读 · 2021年7月29日
基于规则的建模方法的可解释性及其发展
专知
4+阅读 · 2021年6月23日
一文搞懂反向传播
机器学习与推荐算法
17+阅读 · 2020年3月12日
脉冲神经网络与小样本学习【附PPT】
人工智能前沿讲习班
46+阅读 · 2019年2月1日
相关基金
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员