Transformers have shown great potential in various computer vision tasks owing to their strong capability in modeling long-range dependency using the self-attention mechanism. Nevertheless, vision transformers treat an image as 1D sequence of visual tokens, lacking an intrinsic inductive bias (IB) in modeling local visual structures and dealing with scale variance. Alternatively, they require large-scale training data and longer training schedules to learn the IB implicitly. In this paper, we propose a novel Vision Transformer Advanced by Exploring intrinsic IB from convolutions, ie, ViTAE. Technically, ViTAE has several spatial pyramid reduction modules to downsample and embed the input image into tokens with rich multi-scale context by using multiple convolutions with different dilation rates. In this way, it acquires an intrinsic scale invariance IB and is able to learn robust feature representation for objects at various scales. Moreover, in each transformer layer, ViTAE has a convolution block in parallel to the multi-head self-attention module, whose features are fused and fed into the feed-forward network. Consequently, it has the intrinsic locality IB and is able to learn local features and global dependencies collaboratively. Experiments on ImageNet as well as downstream tasks prove the superiority of ViTAE over the baseline transformer and concurrent works. Source code and pretrained models will be available at GitHub.


翻译:各种计算机视觉任务中,变异器显示出巨大的潜力,因为其利用自我注意机制进行远距离依赖模型模型模型的强大能力。然而,视觉变异器将图像作为视觉象征的1D序列处理,在模拟当地视觉结构和处理规模差异方面缺乏内在的感应偏差(IB),或者,它们需要大规模培训数据和较长的培训时间表来隐含地学习IB。在本文件中,我们提出一个新的视野变异变异变异器,通过探索多头自留模块的内在 IB 推进。在技术上,VitAE拥有几个空间金字塔减缩模块,通过使用具有不同变异率的多重变异变(IB ) 将输入图像嵌入丰富多尺度背景的符号中。因此,它获得了内在变异性IB 的内在规模,能够学习不同尺度天体的特征。此外,VITAE在每一个变异层中都有一个与多头自留模块平行的相变变形块块块,其特征被连接并被反馈到进向上网络。因此,它拥有内在的IB和GiLOFS的软化模型,作为全球级模型的基础,能够学习。

0
下载
关闭预览

相关内容

专知会员服务
30+阅读 · 2021年7月30日
专知会员服务
34+阅读 · 2021年5月12日
最新《Transformers模型》教程,64页ppt
专知会员服务
312+阅读 · 2020年11月26日
因果图,Causal Graphs,52页ppt
专知会员服务
248+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
2019年机器学习框架回顾
专知会员服务
36+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
已删除
AI科技评论
4+阅读 · 2018年8月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
语义分割+视频分割开源代码集合
极市平台
35+阅读 · 2018年3月5日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Arxiv
6+阅读 · 2021年3月11日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Exploring Visual Relationship for Image Captioning
Arxiv
15+阅读 · 2018年9月19日
VIP会员
相关VIP内容
专知会员服务
30+阅读 · 2021年7月30日
专知会员服务
34+阅读 · 2021年5月12日
最新《Transformers模型》教程,64页ppt
专知会员服务
312+阅读 · 2020年11月26日
因果图,Causal Graphs,52页ppt
专知会员服务
248+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
2019年机器学习框架回顾
专知会员服务
36+阅读 · 2019年10月11日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
已删除
AI科技评论
4+阅读 · 2018年8月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
语义分割+视频分割开源代码集合
极市平台
35+阅读 · 2018年3月5日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Top
微信扫码咨询专知VIP会员