Vision transformers have become one of the most important models for computer vision tasks. While they outperform earlier convolutional networks, the complexity quadratic to $N$ is one of the major drawbacks when using traditional self-attention algorithms. Here we propose the UFO-ViT(Unit Force Operated Vision Trnasformer), novel method to reduce the computations of self-attention by eliminating some non-linearity. Modifying few of lines from self-attention, UFO-ViT achieves linear complexity without the degradation of performance. The proposed models outperform most transformer-based models on image classification and dense prediction tasks through most capacity regime.


翻译:视觉变压器已成为计算机视觉任务最重要的模型之一,虽然它们比早先的革命网络要好,但复杂的四边形到美元是使用传统的自我注意算法的主要缺点之一。在这里,我们提议采用UFO-ViT(UFO-Viet Vision Trnasored)这个新方法,通过消除一些非线性来减少自我注意的计算。UFO-VIT从自我注意的线条上修改很少,但是在不降低性能的情况下实现了线性复杂性。提议的模型在图像分类和密集预测任务方面,通过大多数能力制度,优于大多数以变压器为基础的模型。

0
下载
关闭预览

相关内容

专知会员服务
29+阅读 · 2021年7月30日
最新《Transformers模型》教程,64页ppt
专知会员服务
276+阅读 · 2020年11月26日
专知会员服务
15+阅读 · 2020年7月27日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
已删除
将门创投
3+阅读 · 2018年8月21日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
Arxiv
0+阅读 · 2021年11月22日
Swin Transformer V2: Scaling Up Capacity and Resolution
TransMix: Attend to Mix for Vision Transformers
Arxiv
1+阅读 · 2021年11月18日
Arxiv
17+阅读 · 2021年3月29日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
已删除
将门创投
3+阅读 · 2018年8月21日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
相关论文
Arxiv
0+阅读 · 2021年11月22日
Swin Transformer V2: Scaling Up Capacity and Resolution
TransMix: Attend to Mix for Vision Transformers
Arxiv
1+阅读 · 2021年11月18日
Arxiv
17+阅读 · 2021年3月29日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Top
微信扫码咨询专知VIP会员