While state-of-the-art vision transformer models achieve promising results for image classification, they are computationally very expensive and require many GFLOPs. Although the GFLOPs of a vision transformer can be decreased by reducing the number of tokens in the network, there is no setting that is optimal for all input images. In this work, we, therefore, introduce a differentiable parameter-free Adaptive Token Sampling (ATS) module, which can be plugged into any existing vision transformer architecture. ATS empowers vision transformers by scoring and adaptively sampling significant tokens. As a result, the number of tokens is not anymore static but it varies for each input image. By integrating ATS as an additional layer within current transformer blocks, we can convert them into much more efficient vision transformers with an adaptive number of tokens. Since ATS is a parameter-free module, it can be added to off-the-shelf pretrained vision transformers as a plug-and-play module, thus reducing their GFLOPs without any additional training. However, due to its differentiable design, one can also train a vision transformer equipped with ATS. We evaluate our module on the ImageNet dataset by adding it to multiple state-of-the-art vision transformers. Our evaluations show that the proposed module improves the state-of-the-art by reducing the computational cost (GFLOPs) by 37% while preserving the accuracy.


翻译:虽然最先进的视觉变压器模型在图像分类方面取得了有希望的结果,但计算成本非常昂贵,需要许多GFLOP。虽然视觉变压器的GFLOP可以通过减少网络中的批量来减少GFLOP,但对于所有输入图像来说,没有最合适的设置。因此,在这项工作中,我们引入了一个可不使用参数的无参数可调适 Token抽样(ATS)模块,该模块可以插入任何现有的视觉变压器结构中。ASTS通过评分和适应性地采样重要标志来增强视觉变压器的准确性。结果是,标牌的数量不再是静止的,而是每种输入图像的变压器。通过将苯丙胺类兴奋剂作为额外的变压层,我们可以将其转换成效率高的视觉变压器,并具有调适量的代号。由于ATS是一个无参数的模块,因此可以添加到那些过时的预设的视觉变压器,因此无需接受任何额外的培训而降低其GFLOPs。然而,由于它的设计不同,因此,我们也可以将图像变换成一个配置的模型模块,我们用ASSDL。

0
下载
关闭预览

相关内容

ATS:IEEE Asian Test Symposium。 Explanation:IEEE亚洲测试研讨会。 Publisher:IEEE。 SIT: http://dblp.uni-trier.de/db/conf/ats/
专知会员服务
22+阅读 · 2021年9月20日
专知会员服务
29+阅读 · 2021年7月30日
最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Transformer中的相对位置编码
AINLP
5+阅读 · 2020年11月28日
已删除
将门创投
4+阅读 · 2019年10月11日
LibRec 精选:EfficientNet、XLNet 论文及代码实现
LibRec智能推荐
5+阅读 · 2019年7月9日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
27+阅读 · 2021年11月11日
Arxiv
11+阅读 · 2021年10月26日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
5+阅读 · 2020年3月16日
VIP会员
相关VIP内容
专知会员服务
22+阅读 · 2021年9月20日
专知会员服务
29+阅读 · 2021年7月30日
最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
Transformer中的相对位置编码
AINLP
5+阅读 · 2020年11月28日
已删除
将门创投
4+阅读 · 2019年10月11日
LibRec 精选:EfficientNet、XLNet 论文及代码实现
LibRec智能推荐
5+阅读 · 2019年7月9日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员