只包含加法操作的加法神经网络 (ANN)为开发低能耗的深层神经网络提供了一种新的途径。但是,当用加法滤波器替换原始的卷积滤波器时会带来精度下降。其主要原因是采用L1-范数进行神经网络优化比较困难。在这种情况下,反向传播的梯度通常会估计不准确。本文提出一种在不增加可训练参数的前提下,通过基于核的渐进式知识蒸馏(PKKD)方法进一步提高ANN的性能。我们将与ANN具有相同结构的卷积神经网络(CNN)进行随机初始化并作为教师网络,将ANN和CNN的特征和权重通过核变换映射到一个新的空间,减少了分布之间的差异,从而消除了精度下降问题。最后,ANN通过渐进的方法同时学习标签和教师网络的知识。该方法在几个标准数据集上得到了很好的验证,从而有效地学习了具有较高性能的ANN。例如,使用所提出的PKKD方法训练的ANN-50在ImageNet数据集上获得76.8%的精度,比相同结构的ResNet-50高0.6%。

https://www.zhuanzhi.ai/paper/3cb74130e9cf983a7247e0d4a0d6bbce

成为VIP会员查看完整内容
16

相关内容

【NeurIPS 2020】通过双向传播的可扩展图神经网络
专知会员服务
27+阅读 · 2020年11月3日
[NeurIPS 2020]对图神经网络更实际的对抗式攻击
专知会员服务
8+阅读 · 2020年11月1日
专知会员服务
28+阅读 · 2020年10月24日
【NeurIPS 2020 】神经网络结构生成优化
专知会员服务
20+阅读 · 2020年10月24日
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
25+阅读 · 2020年7月19日
专知会员服务
73+阅读 · 2020年5月21日
综述:DenseNet—Dense卷积网络(图像分类)
专知
85+阅读 · 2018年11月26日
BP神经网络
Datartisan数据工匠
5+阅读 · 2018年8月9日
【学界】协作式生成对抗网络
GAN生成式对抗网络
8+阅读 · 2018年6月29日
语义分割和转置卷积
AI研习社
10+阅读 · 2018年6月22日
入门 | 一文了解神经网络中的梯度爆炸
机器之心
8+阅读 · 2017年12月22日
深度图像先验:无需学习即可生成新图像
论智
45+阅读 · 2017年12月4日
神经网络bp算法推导
统计学习与视觉计算组
11+阅读 · 2017年11月17日
已删除
Arxiv
32+阅读 · 2020年3月23日
Object detection on aerial imagery using CenterNet
Arxiv
6+阅读 · 2019年8月22日
Fast AutoAugment
Arxiv
5+阅读 · 2019年5月1日
VIP会员
相关VIP内容
【NeurIPS 2020】通过双向传播的可扩展图神经网络
专知会员服务
27+阅读 · 2020年11月3日
[NeurIPS 2020]对图神经网络更实际的对抗式攻击
专知会员服务
8+阅读 · 2020年11月1日
专知会员服务
28+阅读 · 2020年10月24日
【NeurIPS 2020 】神经网络结构生成优化
专知会员服务
20+阅读 · 2020年10月24日
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
25+阅读 · 2020年7月19日
专知会员服务
73+阅读 · 2020年5月21日
相关资讯
综述:DenseNet—Dense卷积网络(图像分类)
专知
85+阅读 · 2018年11月26日
BP神经网络
Datartisan数据工匠
5+阅读 · 2018年8月9日
【学界】协作式生成对抗网络
GAN生成式对抗网络
8+阅读 · 2018年6月29日
语义分割和转置卷积
AI研习社
10+阅读 · 2018年6月22日
入门 | 一文了解神经网络中的梯度爆炸
机器之心
8+阅读 · 2017年12月22日
深度图像先验:无需学习即可生成新图像
论智
45+阅读 · 2017年12月4日
神经网络bp算法推导
统计学习与视觉计算组
11+阅读 · 2017年11月17日
相关论文
已删除
Arxiv
32+阅读 · 2020年3月23日
Object detection on aerial imagery using CenterNet
Arxiv
6+阅读 · 2019年8月22日
Fast AutoAugment
Arxiv
5+阅读 · 2019年5月1日
微信扫码咨询专知VIP会员