SFFAI分享 | 杨朝晖:二值化网络

2018 年 11 月 22 日 人工智能前沿讲习班

关注文章公众号

回复"杨朝晖"获取PDF资料


导读


此次的文章分享主要关于二值化网络在图像分类中的应用。自BinaryConnect,二值化网络取得了一系列的进展。相比于全精度的网络,二值化网络对于全连接或者卷积层压缩32倍,成为一比特,大大减小了网络的存储空间,在二值化权重后,运算可以简化为加减法,如果进一步二值化特征图,运算可以转化成为xnor+bitcount操作,从而进一步加速运算。

 

分享者简介


杨朝晖,北京大学智能科学与技术专业在读博士,本科毕业于北京航空航天大学计算机学院,目前主要研究兴趣点在二值化网络,欢迎感兴趣的伙伴一起交流。


方法


该部分介绍几篇论文的方法

BinaryConnect

本文提出BinaryConnect主要将全连接和卷积层中的权重二值化,以此将乘法运算变成加法运算,压缩的同时能够加快网络的运算速度。训练过程中,使用全精度的参数对于梯度进行累计。前向传播过程中,权重的取值为全精度记录的参数的符号。反向传播过程中,计算损失相对于二值化权重的梯度并累计在全精度的记录中。

BinaryNet

本文在BinaryConnect的基础上,除了对权重进行二值化,BinaryNet对于中间的特征进行二值化。前向传播中,对于特征图,也对于其进行二值化操作后,前向传播。在反向传播中,由于sign函数的导数除0点外处处为0,因此难以进行反向传播,不能直接用求导来更新权重。因此采用straight through estimator,使用二值化后的梯度代替二值化之前的梯度。通过此种方式,BinaryNet可以使用BP算法进行训练。

XNORnet

Binary Weight Network希望使用尺度参数配合二值化权重来代替原权重,解一个优化问题。XNOR Net将特征和权重都进行二值化表示。优化目标为二值化后的结果尽可能减小和全精度网络之间输出的误差。

其他经典网络。

ABCnet使用多个二值化基,和XNORnet目标相似,目的为了尽可能和全精度网络的输出一致。Bi-Real Net针对XNORnet的不足进行优化,通过引入shortcut连接,使用二次函数拟合,更新全精度参数时考虑幅度,使用clip代替relu等一系列操作。DoReFaNet进一步对于训练中的梯度进行量化操作。


总结


二值化网络不论是在研究或是实际应用中都扮演者极其重要的角色,压缩网络大小并且加速计算的特点使得未来边缘设备逐渐成为现实。通常训练阶段记录全精度参数进行训练,并在前向传播、反向传播和部署阶段转化为二值化权重。诸多研究探索了如何更好的设计二值化网络的结构,同时也探索了如何去更好的训练二值化网络。关于二值化网络,相比于全精度的网络还有一定的差距,值得进一步研究。

 

参考文献


[1] Courbariaux M, Bengio Y, David J P.Binaryconnect: Training deep neural networks with binary weights duringpropagations[C]//Advances in neural information processing systems. 2015:3123-3131.

[2] Hubara I, Courbariaux M, Soudry D, et al.Binarized neural networks[C]//Advances in neural information processingsystems. 2016: 4107-4115.

[3] Rastegari M, Ordonez V, Redmon J, et al. Xnor-net:Imagenet classification using binary convolutional neural networks[C]//EuropeanConference on Computer Vision. Springer, Cham, 2016: 525-542.

[4] Lin X, Zhao C, Pan W. Towards accuratebinary convolutional neural network[C]//Advances in Neural InformationProcessing Systems. 2017: 345-353.

[5] Zhou S, Wu Y, Ni Z, et al. Dorefa-net:Training low bitwidth convolutional neural networks with low bitwidthgradients[J]. arXiv preprint arXiv:1606.06160, 2016.

[6] Tang W, Hua G, Wang L. How to train acompact binary neural network with high accuracy?[C]//AAAI. 2017: 2625-2631.

[7] Liu Z, Wu B, Luo W, et al. Bi-real net:Enhancing the performance of 1-bit cnns with improved representationalcapability and advanced training algorithm[J]. arXiv preprint arXiv:1808.00278,2018.



SFFAI讲者招募


为了满足人工智能不同领域研究者相互交流、彼此启发的需求,我们发起了SFFAI这个公益活动。SFFAI每周举行一期线下活动,邀请一线科研人员分享、讨论人工智能各个领域的前沿思想和最新成果,使专注于各个细分领域的研究者开拓视野、触类旁通。

SFFAI目前主要关注机器学习、计算机视觉、自然语言处理等各个人工智能垂直领域及交叉领域的前沿进展,将对线下讨论的内容进行线上传播,使后来者少踩坑,也为讲者塑造个人影响力。

SFFAI还将构建人工智能领域的知识树(AI Knowledge Tree),通过汇总各位参与者贡献的领域知识,沉淀线下分享的前沿精华,使AI Knowledge Tree枝繁叶茂,为人工智能社区做出贡献。

这项意义非凡的社区工作正在稳步向前,衷心期待和感谢您的支持与奉献!


有意加入者请与我们联系:wangxl@mustedu.cn


历史文章推荐:

AI综述专栏 | 非精确图匹配方法综述

从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史

SFFAI分享 | 曹杰:Rotating is Believing

SFFAI分享 | 黄怀波 :自省变分自编码器理论及其在图像生成上的应用

AI综述专栏 | 深度神经网络加速与压缩

SFFAI分享 | 田正坤 :Seq2Seq模型在语音识别中的应用

SFFAI 分享 | 王克欣 : 详解记忆增强神经网络

SFFAI报告 | 常建龙 :深度卷积网络中的卷积算子研究进展

SFFAI 分享 | 李宏扬 :二阶信息在图像分类中的应用

登录查看更多
6

相关内容

[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
36+阅读 · 2020年7月5日
专知会员服务
74+阅读 · 2020年5月21日
专知会员服务
109+阅读 · 2020年5月21日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
33+阅读 · 2020年4月15日
[CVPR 2020-港中文-MIT] 神经架构搜索鲁棒性
专知会员服务
26+阅读 · 2020年4月7日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
39+阅读 · 2020年2月21日
深度神经网络模型压缩与加速综述
专知会员服务
129+阅读 · 2019年10月12日
SFFAI分享 | 常建龙:基于关系的深度学习【附PPT与视频资料】
人工智能前沿讲习班
6+阅读 · 2019年7月1日
SFFAI分享 | 黄健:语音情感识别【附PPT与视频资料】
人工智能前沿讲习班
30+阅读 · 2019年6月11日
图卷积神经网络的变种与挑战【附PPT与视频资料】
人工智能前沿讲习班
28+阅读 · 2018年12月28日
AI综述专栏 | 深度神经网络加速与压缩
人工智能前沿讲习班
31+阅读 · 2018年10月31日
手把手教你构建ResNet残差网络
专知
38+阅读 · 2018年4月27日
神经网络bp算法推导
统计学习与视觉计算组
11+阅读 · 2017年11月17日
专栏 | CVPR 2017论文解读:特征金字塔网络FPN
机器之心
8+阅读 · 2017年7月25日
W-net: Bridged U-net for 2D Medical Image Segmentation
Arxiv
19+阅读 · 2018年7月12日
VIP会员
相关VIP内容
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
36+阅读 · 2020年7月5日
专知会员服务
74+阅读 · 2020年5月21日
专知会员服务
109+阅读 · 2020年5月21日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
33+阅读 · 2020年4月15日
[CVPR 2020-港中文-MIT] 神经架构搜索鲁棒性
专知会员服务
26+阅读 · 2020年4月7日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
39+阅读 · 2020年2月21日
深度神经网络模型压缩与加速综述
专知会员服务
129+阅读 · 2019年10月12日
相关资讯
SFFAI分享 | 常建龙:基于关系的深度学习【附PPT与视频资料】
人工智能前沿讲习班
6+阅读 · 2019年7月1日
SFFAI分享 | 黄健:语音情感识别【附PPT与视频资料】
人工智能前沿讲习班
30+阅读 · 2019年6月11日
图卷积神经网络的变种与挑战【附PPT与视频资料】
人工智能前沿讲习班
28+阅读 · 2018年12月28日
AI综述专栏 | 深度神经网络加速与压缩
人工智能前沿讲习班
31+阅读 · 2018年10月31日
手把手教你构建ResNet残差网络
专知
38+阅读 · 2018年4月27日
神经网络bp算法推导
统计学习与视觉计算组
11+阅读 · 2017年11月17日
专栏 | CVPR 2017论文解读:特征金字塔网络FPN
机器之心
8+阅读 · 2017年7月25日
Top
微信扫码咨询专知VIP会员