项目名称: 基于稀疏编码模型的深层学习神经网络

项目编号: No.61273023

项目类型: 面上项目

立项/批准年度: 2013

项目学科: 自动化技术、计算机技术

项目作者: 胡晓林

作者单位: 清华大学

项目金额: 61万元

中文摘要: 深层学习和稀疏编码在解释大脑的工作机理、挖掘数据的结构信息、抽取用于模式识别的特征等方面发挥着重要作用。目前二者的结合备受关注,但结合方式主要是在现有的深层学习网络基础上进行修改,增加稀疏性约束。这种方式虽然简单直接,但无法克服现有深层学习网络学习过程慢、参数调整复杂的固有缺陷。本项目从另一个角度出发,提出直接以稀疏编码模型为基础构建深层学习网络。拟研究的稀疏编码模型包括单层和双层模型,构建的深层学习网络将既有基于单层模型的,又有基于双层模型的,还有基于单、双层模型混合的。一方面,通过理论分析建立基于稀疏编码模型的深层学习网络的理论基础,另一方面,通过实验对比发明一系列适合实际应用问题的深层学习网络。鉴于稀疏编码模型简洁的结构和良好的算法性能,它们与深层学习网络结合的这种方式不仅更加自然,还有助于克服现有深层学习网络的上述固有缺陷,并有望在计算神经科学领域和模式识别相关领域中发挥重要作用。

中文关键词: 深度学习;稀疏编码;神经科学;神经网络;反馈连接

英文摘要: Deep learning and sparse coding play important roles in explaining the functional mechanism of the brain, mining the structural information of data and extracting features for pattern recognition. In these years, integration of the two models has attracted much interest. The main idea for the integration is adding sparsity constraints to the existing deep learning networks (DLNs). This method, though simple enough, cannot circumvent the inherent drawbacks of the existing DLNs including the slow learning process and troublesome parameter tuning process. In this project, from a different perspective, we propose to construct DLNs with sparse coding models as fundamental units. The sparse coding models that will be studied include single-layer and two-layer models, while the DLNs will be constructed based on single-layer models, two-layer models, as well as a combination of both. On one hand, we will establish the fundamental theory of the sparse coding models-based DLNs through theoretical analysis. On the other hand, we will devise a series of DLNs appropriate for real applications through extensive experiments. In view of the simple structure and excellent performance of the sparse coding models, this new integration method for sparse coding and deep learning is more natural and can help to circumvent the inheren

英文关键词: deep learning;sparse coding;neuroscience;neural network;recurrent connection

成为VIP会员查看完整内容
7

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
神经网络的基础数学
专知会员服务
202+阅读 · 2022年1月23日
【博士论文】基于深度学习的单目场景深度估计方法研究
面向知识图谱的图嵌入学习研究进展
专知会员服务
60+阅读 · 2021年11月3日
专知会员服务
15+阅读 · 2021年10月11日
【经典书】《学习OpenCV 3》,1018页pdf
专知会员服务
130+阅读 · 2021年2月28日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
30+阅读 · 2020年12月14日
专知会员服务
77+阅读 · 2020年12月6日
专知会员服务
114+阅读 · 2020年8月22日
基于改进卷积神经网络的短文本分类模型
专知会员服务
25+阅读 · 2020年7月22日
专知会员服务
73+阅读 · 2020年5月21日
神经网络,凉了?
CVer
2+阅读 · 2022年3月16日
2022最新图嵌入模型综述
机器学习与推荐算法
3+阅读 · 2022年1月18日
【速览】IJCV 2021| 基于贝叶斯学习的紧凑1比特卷积神经网络(BONN)
中国图象图形学学会CSIG
0+阅读 · 2021年11月16日
基于规则的建模方法的可解释性及其发展
专知
4+阅读 · 2021年6月23日
知识分享 | 深度学习的学习路径
沈浩老师
19+阅读 · 2019年1月9日
基于二进制哈希编码快速学习的快速图像检索
极市平台
12+阅读 · 2018年5月17日
卷积神经网络(CNN)学习笔记1:基础入门
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月16日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
7+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月17日
Arxiv
13+阅读 · 2021年5月25日
Arxiv
21+阅读 · 2020年10月11日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Arxiv
24+阅读 · 2018年10月24日
小贴士
相关VIP内容
神经网络的基础数学
专知会员服务
202+阅读 · 2022年1月23日
【博士论文】基于深度学习的单目场景深度估计方法研究
面向知识图谱的图嵌入学习研究进展
专知会员服务
60+阅读 · 2021年11月3日
专知会员服务
15+阅读 · 2021年10月11日
【经典书】《学习OpenCV 3》,1018页pdf
专知会员服务
130+阅读 · 2021年2月28日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
30+阅读 · 2020年12月14日
专知会员服务
77+阅读 · 2020年12月6日
专知会员服务
114+阅读 · 2020年8月22日
基于改进卷积神经网络的短文本分类模型
专知会员服务
25+阅读 · 2020年7月22日
专知会员服务
73+阅读 · 2020年5月21日
相关资讯
神经网络,凉了?
CVer
2+阅读 · 2022年3月16日
2022最新图嵌入模型综述
机器学习与推荐算法
3+阅读 · 2022年1月18日
【速览】IJCV 2021| 基于贝叶斯学习的紧凑1比特卷积神经网络(BONN)
中国图象图形学学会CSIG
0+阅读 · 2021年11月16日
基于规则的建模方法的可解释性及其发展
专知
4+阅读 · 2021年6月23日
知识分享 | 深度学习的学习路径
沈浩老师
19+阅读 · 2019年1月9日
基于二进制哈希编码快速学习的快速图像检索
极市平台
12+阅读 · 2018年5月17日
卷积神经网络(CNN)学习笔记1:基础入门
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月16日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
7+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月17日
Arxiv
13+阅读 · 2021年5月25日
Arxiv
21+阅读 · 2020年10月11日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Arxiv
24+阅读 · 2018年10月24日
微信扫码咨询专知VIP会员