We introduce a novel and generic convolutional unit, DiCE unit, that is built using dimension-wise convolutions and dimension-wise fusion. The dimension-wise convolutions apply light-weight convolutional filtering across each dimension of the input tensor while dimension-wise fusion efficiently combines these dimension-wise representations; allowing the DiCE unit to efficiently encode spatial and channel-wise information contained in the input tensor. The DiCE unit is simple and can be seamlessly integrated with any architecture to improve its efficiency and performance. Compared to depth-wise separable convolutions, the DiCE unit shows significant improvements across different architectures. When DiCE units are stacked to build the DiCENet model, we observe significant improvements over state-of-the-art models across various computer vision tasks including image classification, object detection, and semantic segmentation. On the ImageNet dataset, the DiCENet delivers 2-4% higher accuracy than state-of-the-art manually designed models (e.g., MobileNetv2 and ShuffleNetv2). Also, DiCENet generalizes better to tasks (e.g., object detection) that are often used in resource-constrained devices in comparison to state-of-the-art separable convolution-based efficient networks, including neural search-based methods (e.g., MobileNetv3 and MixNet. Our source code in PyTorch is open-source and is available at https://github.com/sacmehta/EdgeNets/


翻译:我们引入了一个新颖的、通用的共变单元DICE 单元, 这个单元是使用维度- 维度- 共变和维度- 融合来构建的。 维度- 维度- 共变在输入点的每个维度上应用轻量级的共变过滤器, 而维度- 共变将这些维度- 高效地结合这些维度- 表达式; 允许 DICE 单位高效地编码输入输入点的空和频道- 信息。 DICE 单元简单, 并且可以与任何架构无缝地整合, 以提高其效率和性能。 与深度- 分相异的共变组合相比, DICE 单元显示不同结构之间的重大改进。 当 DICE 单位堆叠以构建 DCENet 模型的每个维度- 轻度- 共变异性过滤器时, 我们观察到了各种计算机视觉任务, 包括图像分类, 对象/ 网络 网络 和网络 内流- 系统- 系统- 系统- 系统- 搜索系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统- 系统

0
下载
关闭预览

相关内容

最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
最新《Transformers模型》教程,64页ppt
专知会员服务
278+阅读 · 2020年11月26日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
37+阅读 · 2020年2月21日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
SlowFast Networks for Video Recognition
Arxiv
4+阅读 · 2019年4月18日
Arxiv
6+阅读 · 2019年4月8日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
11+阅读 · 2018年1月18日
VIP会员
相关VIP内容
相关资讯
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员