项目名称: 循环神经网络多模态深度模型联想记忆功能研究

项目编号: No.61773385

项目类型: 面上项目

立项/批准年度: 2018

项目学科: 其他

项目作者: 杨刚

作者单位: 中国人民大学

项目金额: 16万元

中文摘要: 循环神经网络深度模型在模拟人脑联想记忆功能方面具有重要的科学研究意义。当前深度学习已有效地模拟了人脑区域化分层学习的特点,而循环神经网络深度模型研究方兴未艾,仍有大量问题亟待解决。本课题拟从深度模型模拟人脑联想记忆功能的新角度,研究循环神经网络多模态深度模型及其特性。首先,通过将高效的循环神经网络嵌入到深度学习模型,研究面向联想记忆功能的深度循环神经网络的模型构建和结构优化,并通过引入循环神经网络混沌动态,研究深度循环神经网络的混沌特性和混沌控制,形成多模态下深度循环神经网络的特性对比分析;其次,通过拓展阈限定、贪心分层无监督学习、群智能和演化算法融合等方法,微调网络权值,优化提升深度循环神经网络的联想记忆功能,并展开此模型在视频图像分类问题中的应用研究。本课题从研究人工神经网络模型结构和特点的角度探索人脑联想记忆机理,将为类脑的信息检索提供方法和应用支持。

中文关键词: 循环神经网络;联想记忆;多层次结构与深度学习网络;网络结构学习;深度模型

英文摘要: Recurrent neural network with deep architecture (DCNN) owns important scientific value to explore and mimic brain associative memory mechanism. Now deep learning has already revealed brain property of domain layer-wise learning, but this researching of DCNN on associative memory is just beginning, containing many problems to be solved. From a novel aspect of using deep architecture to mimic brain associative memory, this project studies models, principles and optimizations of DCNN. Firstly, we propose a basic multi-layer associative memory model with different inputting, through embedding cascaded shallow recurrent model and layer-wise training method. We advance the associative memory function by introducing chaotic dynamics and chaos control, further research the model complex dynamics experimentally. Secondly, we extend threshold and regularization method, introduce greedy layer-wise un-surpervised learning, and integrate swarm intelligence to optimize network weight learning. Through implementation of the improved associative memory function, we research DCNN applications on the field of image recognition. Our project could explore the memory mechanism of human brain from the aspect of artificial neural network structure, and it would provide methodology and application supports for constructing brain-like information retrieval.

英文关键词: recurrent neural network;associative memory;multiple layers and deep learning;network structure learning;deep architecture

成为VIP会员查看完整内容
5

相关内容

循环神经网络(RNN)是一类人工神经网络,其中节点之间的连接沿时间序列形成有向图。 这使其表现出时间动态行为。 RNN源自前馈神经网络,可以使用其内部状态(内存)来处理可变长度的输入序列。这使得它们适用于诸如未分段的,连接的手写识别或语音识别之类的任务。
专知会员服务
21+阅读 · 2021年10月9日
专知会员服务
54+阅读 · 2021年10月4日
专知会员服务
41+阅读 · 2021年6月2日
专知会员服务
51+阅读 · 2021年4月6日
专知会员服务
187+阅读 · 2021年2月4日
注意力机制综述
专知会员服务
203+阅读 · 2021年1月26日
【CIKM2020】神经贝叶斯信息处理,220页ppt,国立交通大学
专知会员服务
34+阅读 · 2020年10月26日
专知会员服务
114+阅读 · 2020年8月22日
神经网络与深度学习,复旦大学邱锡鹏老师
专知会员服务
117+阅读 · 2019年9月24日
深度运用LSTM神经网络并与经典时序模型对比
PaperWeekly
1+阅读 · 2021年12月16日
注意力机制综述(中文版)
专知
23+阅读 · 2021年1月26日
神经机器阅读理解最新综述:方法和趋势
PaperWeekly
15+阅读 · 2019年7月25日
可视化循环神经网络的注意力机制
论智
22+阅读 · 2018年9月23日
深度学习循环神经网络详解
七月在线实验室
16+阅读 · 2018年5月28日
[深度学习] 我理解的循环神经网络RNN
机器学习和数学
16+阅读 · 2017年12月2日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
23+阅读 · 2021年10月11日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
13+阅读 · 2018年1月20日
小贴士
相关VIP内容
专知会员服务
21+阅读 · 2021年10月9日
专知会员服务
54+阅读 · 2021年10月4日
专知会员服务
41+阅读 · 2021年6月2日
专知会员服务
51+阅读 · 2021年4月6日
专知会员服务
187+阅读 · 2021年2月4日
注意力机制综述
专知会员服务
203+阅读 · 2021年1月26日
【CIKM2020】神经贝叶斯信息处理,220页ppt,国立交通大学
专知会员服务
34+阅读 · 2020年10月26日
专知会员服务
114+阅读 · 2020年8月22日
神经网络与深度学习,复旦大学邱锡鹏老师
专知会员服务
117+阅读 · 2019年9月24日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员