In this paper, we propose a novel layer based on fast Walsh-Hadamard transform (WHT) and smooth-thresholding to replace $1\times 1$ convolution layers in deep neural networks. In the WHT domain, we denoise the transform domain coefficients using the new smooth-thresholding non-linearity, a smoothed version of the well-known soft-thresholding operator. We also introduce a family of multiplication-free operators from the basic 2$\times$2 Hadamard transform to implement $3\times 3$ depthwise separable convolution layers. Using these two types of layers, we replace the bottleneck layers in MobileNet-V2 to reduce the network's number of parameters with a slight loss in accuracy. For example, by replacing the final third bottleneck layers, we reduce the number of parameters from 2.270M to 947K. This reduces the accuracy from 95.21\% to 92.88\% on the CIFAR-10 dataset. Our approach significantly improves the speed of data processing. The fast Walsh-Hadamard transform has a computational complexity of $O(m\log_2 m)$. As a result, it is computationally more efficient than the $1\times1$ convolution layer. The fast Walsh-Hadamard layer processes a tensor in $\mathbb{R}^{10\times32\times32\times1024}$ about 2 times faster than $1\times1$ convolution layer on NVIDIA Jetson Nano computer board.


翻译:在本文中, 我们提出一个基于 Walsh- Hadamard 快速变换 (WHT) 和 平滑配置的新层次, 以取代深神经网络中 1 美元乘数层 。 在 WHT 域中, 我们使用新的平滑保持非线性, 将变异域系数缩放, 这是众所周知的软控数操作器的平滑版本 。 我们还引入了一个从基本 2 美元 的 2 美元乘数 3 美元乘数 2 Hadamard 变换为 3 美元 美元 的深度可调和层 。 我们的方法大大提高了数据处理速度 3 美元 的深度 。 利用这两类层, 我们替换了移动网络- V2 的瓶数层, 以精确度减少网络参数的数量。 例如, 我们通过替换最后的第三瓶数层, 将参数从 2, 270 m\\\ 减为 947K 。 这将CIFAR 10 10 美元 的精确度降为 10 美元 。 我们的方法极大地提高了数据处理速度 。 。 。 快速 变换 格式 。 将 美元 的 的 。 美元 的 值 值 值 值 值 值 值 值 值 的 值 值 的 值 值 值 值 值 值 值 值 值 值 值 值 值 值 值 的 值 值 值 。

0
下载
关闭预览

相关内容

简明扼要!Python教程手册,206页pdf
专知会员服务
48+阅读 · 2020年3月24日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
滴滴离线索引快速构建FastIndex架构实践
InfoQ
21+阅读 · 2020年3月19日
已删除
将门创投
4+阅读 · 2019年5月8日
(Python)3D人脸处理工具Face3d
AI研习社
7+阅读 · 2019年2月10日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
73+阅读 · 2016年11月26日
Arxiv
0+阅读 · 2021年6月8日
Arxiv
0+阅读 · 2021年6月5日
Arxiv
0+阅读 · 2021年6月5日
Arxiv
13+阅读 · 2021年5月25日
Arxiv
21+阅读 · 2021年2月13日
VIP会员
相关资讯
滴滴离线索引快速构建FastIndex架构实践
InfoQ
21+阅读 · 2020年3月19日
已删除
将门创投
4+阅读 · 2019年5月8日
(Python)3D人脸处理工具Face3d
AI研习社
7+阅读 · 2019年2月10日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
73+阅读 · 2016年11月26日
Top
微信扫码咨询专知VIP会员