The ResNet and its variants have achieved remarkable successes in various computer vision tasks. Despite its success in making gradient flow through building blocks, the simple shortcut connection mechanism limits the ability of re-exploring new potentially complementary features due to the additive function. To address this issue, in this paper, we propose to introduce a regulator module as a memory mechanism to extract complementary features, which are further fed to the ResNet. In particular, the regulator module is composed of convolutional RNNs (e.g., Convolutional LSTMs or Convolutional GRUs), which are shown to be good at extracting Spatio-temporal information. We named the new regulated networks as RegNet. The regulator module can be easily implemented and appended to any ResNet architecture. We also apply the regulator module for improving the Squeeze-and-Excitation ResNet to show the generalization ability of our method. Experimental results on three image classification datasets have demonstrated the promising performance of the proposed architecture compared with the standard ResNet, SE-ResNet, and other state-of-the-art architectures.


翻译:ResNet及其变体在各种计算机愿景任务中取得了显著成功。 尽管它成功地通过构件使梯度流成为梯度流,但简单的快捷连接机制限制了由于添加功能而重新探索潜在的补充功能的能力。为了解决这一问题,我们在本文件中提议采用一个调控模块作为提取补充功能的记忆机制,这些功能将进一步反馈给ResNet。特别是,调控模块由协同RNN(例如,Convolutional LSTMS 或 Convolutional GRUs)组成,这些功能在提取Spatio-时间信息方面表现良好。我们将新的调控网络命名为RegNet。调控模块可以很容易地实施并附在任何 ResNet 结构中。我们还将调控管模块用于改进Squeze-Excuring ResNet, 以显示我们方法的总体能力。三个图像分类数据集的实验结果显示,与标准ResNet、SE-ResNet和其他状态结构相比,拟议架构的绩效良好。

0
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2020年12月25日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
Attention最新进展
极市平台
5+阅读 · 2020年5月30日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
Github 项目推荐 | 用 Pytorch 实现的 Capsule Network
AI研习社
22+阅读 · 2018年3月7日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
3+阅读 · 2020年4月29日
Neural Image Captioning
Arxiv
5+阅读 · 2019年7月2日
Arxiv
3+阅读 · 2017年10月1日
VIP会员
Top
微信扫码咨询专知VIP会员