Vision transformers have become one of the most important models for computer vision tasks. Although they outperform prior works, they require heavy computational resources on a scale that is quadratic to $N$. This is a major drawback of the traditional self-attention (SA) algorithm. Here, we propose the Unit Force Operated Vision Transformer (UFO-ViT), a novel SA mechanism that has linear complexity. The main approach of this work is to eliminate nonlinearity from the original SA. We factorize the matrix multiplication of the SA mechanism without complicated linear approximation. By modifying only a few lines of code from the original SA, the proposed models outperform most transformer-based models on image classification and dense prediction tasks on most capacity regimes.


翻译:视觉变压器已成为计算机视觉任务最重要的模型之一。 虽然它们比先前的工程要好, 但是它们需要重的计算资源, 其规模是四角到美元。 这是传统自我注意算法的一大缺陷 。 在此, 我们提议使用一个具有线性复杂性的新颖的视觉变压器( UFO- VIT ) ( UFO- VIT ) 。 这项工作的主要方法就是消除原SA 的非线性 。 我们将SA 机制的矩阵乘法化而没有复杂的线性近似 。 通过只修改原SA 的几行代码, 提议的模型在图像分类和大多数能力系统中的密集预测任务上, 超过了最基于变压器的模型 。

1
下载
关闭预览

相关内容

专知会员服务
8+阅读 · 2021年9月22日
专知会员服务
29+阅读 · 2021年7月30日
专知会员服务
16+阅读 · 2021年5月23日
【CVPR 2021】变换器跟踪TransT: Transformer Tracking
专知会员服务
21+阅读 · 2021年4月20日
最新《Transformers模型》教程,64页ppt
专知会员服务
291+阅读 · 2020年11月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
已删除
将门创投
4+阅读 · 2018年7月31日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Arxiv
11+阅读 · 2021年10月26日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2018年7月31日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Top
微信扫码咨询专知VIP会员