项目名称: 前馈神经网络的结构稀疏化设计与分析

项目编号: No.61473059

项目类型: 面上项目

立项/批准年度: 2015

项目学科: 其他

项目作者: 吴微

作者单位: 大连理工大学

项目金额: 80万元

中文摘要: 在保证适当学习精度前提下,神经网络的权值连接以及神经元应该尽可能少(结构稀疏化),从而降低成本,提高稳健性和推广精度。本项目用正则化方法研究前馈神经网络的结构稀疏化,有以下几个要点:1)传统的神经网络正则化通过惩罚冗余权值连接达到权值稀疏化;我们主张通过惩罚冗余单元而达到效率更高的单元稀疏化。2)除了传统的用于稀疏化的L1正则化之外,我们还采用近几年流行的L1/2正则化。为了解决L1/2正则化算子不光滑,容易导致迭代过程震荡这一问题,我们试图在不光滑点的一个小邻域内采用磨光技巧,构造一种光滑化L1/2正则化算子,以期达到比L1正则化更高的稀疏化效率。3)我们首倡研究输入层单元稀疏化,不但作为整个网络结构稀疏化的一部分,更使得神经网络成为非线性压缩感知的一个可行工具。4)用于多分类问题时,我们首倡输出层单元采用二进制方式,代替传统的亮灯方式,简单高效地减少输出单元。

中文关键词: 神经网络;稀疏化;正则化

英文摘要: On the premise of appropriate learning accuracy, the number of the neurons and weights of a neural network should be as less as possible (constructional sparsification), so as to reduce the cost, and to improve the robustness and the generalization accuracy. This project studies the constructional sparcification of feedforward neural networks by using regularization methods, and it contains the following main points: 1) We propose to punish the redundant neurons to get a more effective nodes sparsification, while the traditional approach punishes the weights to get weight sparcification. 2) Apart from the traditional L1 regularization for sparsification, we also use L1/2 regularization. To remove the oscillation in the iteration process due to the nonsmoothness of the L1/2 regularizer, we propose to smooth it in a neighborhood of the nonsmooth point to get a smoothing L1/2 regularizer. By doing so, we expect to improve the efficiency of the L1/2 regularizer so as to surpass the L1 regularizer. 2) We propose to study the sparsification of the input layer neurons. It not only is a part of the whole network sparsification, but also provides a tool for the sparsification of variables of general nonlinear problems. 3) For the output representation for multi-classification problems, we propose to use the binary approach to replace the traditional one-for-each approach so as to simply and effectively reduce the number of the output neurons.

英文关键词: Neural networks;sparsification;regularization

成为VIP会员查看完整内容
0

相关内容

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。 最近十多年来,人工神经网络的研究工作不断深入,已经取得了很大的进展,其在模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题,表现出了良好的智能特性。
【经典书】数字控制工程:分析与设计,第二版,601页pdf
算法分析导论, 593页pdf
专知会员服务
144+阅读 · 2021年8月30日
【经典书】数据结构与算法,770页pdf
专知会员服务
135+阅读 · 2021年4月15日
专知会员服务
20+阅读 · 2021年3月9日
最新《非凸优化理论》进展书册,79页pdf
专知会员服务
104+阅读 · 2020年12月18日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
29+阅读 · 2020年12月14日
专知会员服务
70+阅读 · 2020年12月7日
专知会员服务
73+阅读 · 2020年5月21日
深度学习算法与架构回顾
专知会员服务
77+阅读 · 2019年10月20日
正则化技巧:标签平滑以及在 PyTorch 中的实现
极市平台
2+阅读 · 2021年12月10日
综述 | 语义分割经典网络及轻量化模型盘点
计算机视觉life
51+阅读 · 2019年7月23日
一文看懂常用特征工程方法
AI研习社
17+阅读 · 2018年5月2日
神经网络结构在命名实体识别(NER)中的应用
全球人工智能
10+阅读 · 2018年4月5日
前沿 | 简述脉冲神经网络SNN:下一代神经网络
机器之心
36+阅读 · 2018年1月13日
干货 | 深度学习之卷积神经网络(CNN)的模型结构
机器学习算法与Python学习
12+阅读 · 2017年11月1日
神经网络中的「注意力」是什么?怎么用?
北京思腾合力科技有限公司
17+阅读 · 2017年10月28日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年5月2日
Arxiv
27+阅读 · 2020年6月19日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
13+阅读 · 2018年12月6日
小贴士
相关VIP内容
【经典书】数字控制工程:分析与设计,第二版,601页pdf
算法分析导论, 593页pdf
专知会员服务
144+阅读 · 2021年8月30日
【经典书】数据结构与算法,770页pdf
专知会员服务
135+阅读 · 2021年4月15日
专知会员服务
20+阅读 · 2021年3月9日
最新《非凸优化理论》进展书册,79页pdf
专知会员服务
104+阅读 · 2020年12月18日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
29+阅读 · 2020年12月14日
专知会员服务
70+阅读 · 2020年12月7日
专知会员服务
73+阅读 · 2020年5月21日
深度学习算法与架构回顾
专知会员服务
77+阅读 · 2019年10月20日
相关资讯
正则化技巧:标签平滑以及在 PyTorch 中的实现
极市平台
2+阅读 · 2021年12月10日
综述 | 语义分割经典网络及轻量化模型盘点
计算机视觉life
51+阅读 · 2019年7月23日
一文看懂常用特征工程方法
AI研习社
17+阅读 · 2018年5月2日
神经网络结构在命名实体识别(NER)中的应用
全球人工智能
10+阅读 · 2018年4月5日
前沿 | 简述脉冲神经网络SNN:下一代神经网络
机器之心
36+阅读 · 2018年1月13日
干货 | 深度学习之卷积神经网络(CNN)的模型结构
机器学习算法与Python学习
12+阅读 · 2017年11月1日
神经网络中的「注意力」是什么?怎么用?
北京思腾合力科技有限公司
17+阅读 · 2017年10月28日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员