The fully connected (FC) layer, one of the most fundamental modules in artificial neural networks (ANN), is often considered difficult and inefficient to train due to issues including the risk of overfitting caused by its large amount of parameters. Based on previous work studying ANN from linear spline perspectives, we propose a spline-based approach that eases the difficulty of training FC layers. Given some dataset, we first obtain a continuous piece-wise linear (CPWL) fit through spline methods such as multivariate adaptive regression spline (MARS). Next, we construct an ANN model from the linear spline model and continue to train the ANN model on the dataset using gradient descent optimization algorithms. Our experimental results and theoretical analysis show that our approach reduces the computational cost, accelerates the convergence of FC layers, and significantly increases the interpretability of the resulting model (FC layers) compared with standard ANN training with random parameter initialization followed by gradient descent optimizations.


翻译:完全连接(FC)层是人工神经网络(ANN)中最基本的模块之一,通常被认为是培训困难和低效的,因为问题包括其大量参数造成的超编风险。根据以前从线性样条角度对ANN进行的研究,我们提出了一个基于样板的方法,以减轻培训FC层的困难。根据一些数据集,我们首先通过多变量适应性回归样条等样条方法获得连续的片断线性线性(CPWL)。接下来,我们从线性样条模型中建立一个ANN模型,并继续利用梯度下降优化算法对ANN模型进行数据集培训。我们的实验结果和理论分析表明,我们的方法降低了计算成本,加快了FC层的趋同,并大大提高了由此产生的模型(FC层)与随机参数初始化和梯度下降优化的标准培训的可解释性。

0
下载
关闭预览

相关内容

FC:Financial Cryptography and Data Security。 Explanation:金融密码与数据安全。 Publisher:Springer。 SIT: http://dblp.uni-trier.de/db/conf/fc/
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
【Nature论文】深度网络中的梯度下降复杂度控制
专知会员服务
38+阅读 · 2020年3月9日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
【推荐】深度学习时序处理文献列表
机器学习研究会
7+阅读 · 2017年11月29日
视频|PyData:神经网络推荐系统!
全球人工智能
4+阅读 · 2017年11月20日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年4月2日
Arxiv
35+阅读 · 2021年1月27日
VIP会员
Top
微信扫码咨询专知VIP会员