Recent advances on Vision Transformers (ViT) have shown that self-attention-based networks, which take advantage of long-range dependencies modeling ability, surpassed traditional convolution neural networks (CNNs) in most vision tasks. To further expand the applicability for computer vision, many improved variants are proposed to re-design the Transformer architecture by considering the superiority of CNNs, i.e., locality, translation invariance, for better performance. However, these methods only consider the standard accuracy or computation cost of the model. In this paper, we rethink the design principles of ViTs based on the robustness. We found some design components greatly harm the robustness and generalization ability of ViTs while some others are beneficial. By combining the robust design components, we propose Robust Vision Transformer (RVT). RVT is a new vision transformer, which has superior performance and strong robustness. We further propose two new plug-and-play techniques called position-aware attention rescaling and patch-wise augmentation to train our RVT. The experimental results on ImageNet and six robustness benchmarks show the advanced robustness and generalization ability of RVT compared with previous Transformers and state-of-the-art CNNs. Our RVT-S* also achieves Top-1 rank on multiple robustness leaderboards including ImageNet-C and ImageNet-Sketch. The code will be available at https://github.com/vtddggg/Robust-Vision-Transformer.


翻译:视觉变异器(Vigg)的最新进步显示,利用远程依赖模型模型能力的基于自我注意的网络,在多数视觉任务中超越了传统的共变神经网络(CNNs),在多数视觉任务中超过了传统的共变神经网络(CNNNs),为进一步扩大计算机愿景的适用性,提出了许多改进的变异器,通过考虑CNN的优越性来重新设计变异器结构,即地方、翻译差异性能,以提高性能。然而,这些方法只考虑模型的标准精确度或计算成本。在本文中,我们根据强健性重新思考VTs的设计原则。我们发现,一些设计组成部分大大损害了ViTs的稳健性和一般能力。通过将强健性设计组件结合起来,我们提出了强性愿景变异功能,即超强性能和强性能。我们还提议了两种新的插播技术,即定位仪表上的注意度调整和补全性增强性能,以培训我们的RVT。在图像网络和六种稳性图像网络的实验结果,包括RV-VS-S-Slev-S-S-S-Slev-dealallifalalalalal-com-comlifal-stal-stal-stalvial-s-s-stalview-stal-stal-st-stal-stal-stal-st-st-st-st-stalviewatity-s-s-s-s-st-stalvialgilgal-s-st-sality-sality-stality-sal-sal-s-s-sal-s-s-sility-sal-s-s-s-s-s-s-s-s-s-sal-sal-al-sal-sal-s-s-sal-sal-sal-sal-sal-sal-salvial-sal-s-s-sal-s-s-s-s-s-s-s-s-s-s-s-s-s-s-s-s-s-s-s-sal-al-s-s-s-s-s-s-s-s-s-

0
下载
关闭预览

相关内容

最新《Transformers模型》教程,64页ppt
专知会员服务
308+阅读 · 2020年11月26日
【机器推理可解释性】Machine Reasoning Explainability
专知会员服务
34+阅读 · 2020年9月3日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Arxiv
0+阅读 · 2021年7月9日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
3+阅读 · 2020年9月30日
VIP会员
相关资讯
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Top
微信扫码咨询专知VIP会员