We propose contextual convolution (CoConv) for visual recognition. CoConv is a direct replacement of the standard convolution, which is the core component of convolutional neural networks. CoConv is implicitly equipped with the capability of incorporating contextual information while maintaining a similar number of parameters and computational cost compared to the standard convolution. CoConv is inspired by neuroscience studies indicating that (i) neurons, even from the primary visual cortex (V1 area), are involved in detection of contextual cues and that (ii) the activity of a visual neuron can be influenced by the stimuli placed entirely outside of its theoretical receptive field. On the one hand, we integrate CoConv in the widely-used residual networks and show improved recognition performance over baselines on the core tasks and benchmarks for visual recognition, namely image classification on the ImageNet data set and object detection on the MS COCO data set. On the other hand, we introduce CoConv in the generator of a state-of-the-art Generative Adversarial Network, showing improved generative results on CIFAR-10 and CelebA. Our code is available at https://github.com/iduta/coconv.


翻译:我们提议进行背景变迁(Conv),以进行视觉识别。Conv是直接取代标准变迁,这是进化神经网络的核心组成部分。Conv隐含地具备了将背景信息整合的能力,同时与标准变迁相比,保持了类似数量的参数和计算成本。Conv受到神经科学研究的启发,这些研究表明:(一)神经元,即使是初级视觉皮层(V1区)也参与检测背景提示,以及(二)视觉神经元的活动可以受到完全处于理论可接受领域外的直观神经元活动的影响。一方面,我们将Conv纳入广泛使用的残余网络,显示在视觉识别的核心任务和基准基线方面,即图像网络数据集的图像分类和MS COCO数据集的物体探测方面,有了更好的认知性表现。另一方面,我们将Convinv引入州级Genarial Adversarial网络的生成器,显示CIFAR-10和CelibA的改良基因描述结果。我们的代码可在https://github.com/utav/utavconation。

0
下载
关闭预览

相关内容

在数学(特别是功能分析)中,卷积是对两个函数(f和g)的数学运算,产生三个函数,表示第一个函数的形状如何被另一个函数修改。 卷积一词既指结果函数,又指计算结果的过程。 它定义为两个函数的乘积在一个函数反转和移位后的积分。 并针对所有shift值评估积分,从而生成卷积函数。
专知会员服务
112+阅读 · 2020年11月16日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
31+阅读 · 2020年4月15日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
一文读懂图卷积GCN
AINLP
4+阅读 · 2019年12月17日
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
3+阅读 · 2020年4月29日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
CoCoNet: A Collaborative Convolutional Network
Arxiv
6+阅读 · 2019年1月28日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
7+阅读 · 2018年1月10日
Arxiv
5+阅读 · 2017年9月8日
VIP会员
相关资讯
论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
一文读懂图卷积GCN
AINLP
4+阅读 · 2019年12月17日
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
3+阅读 · 2020年4月29日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
CoCoNet: A Collaborative Convolutional Network
Arxiv
6+阅读 · 2019年1月28日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
7+阅读 · 2018年1月10日
Arxiv
5+阅读 · 2017年9月8日
Top
微信扫码咨询专知VIP会员