本文提出了一种高分辨率Transformer(HRT),它可以通过学习高分辨率表征来完成密集的预测任务,而原来的Vision Transformer学习的则是低分辨率表征,同时具有很高的内存和计算成本。

作者在高分辨率卷积网络(HRNet)中分别引入的多分辨率并行设计,以及local-window self-attention,在小的非重叠图像窗口上执行self-attention,以提高内存和计算效率。此外,在FFN中引入了卷积操作,以在断开的图像窗口之间交换信息。

作者实验证明了HRT在人体姿态估计和语义分割任务中的有效性,HRT在COCO姿态估计上比Swin Transformer少了50%的参数和30%的FLOPs,精度比Swin Transformer高出1.3%AP。

成为VIP会员查看完整内容
17

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【AAAI2022】基于双流更新的视觉Transformer动态加速方法
专知会员服务
23+阅读 · 2021年12月11日
【NeurIPS 2021】流形上的注意力机制:规范等变的Transformer
【NeurIPS 2021】寻找视觉Transformer的搜索空间
专知会员服务
13+阅读 · 2021年12月1日
【NeurIPS2021】SOLQ:基于学习查询的物体分割
专知会员服务
9+阅读 · 2021年11月9日
专知会员服务
9+阅读 · 2021年10月17日
专知会员服务
16+阅读 · 2021年7月13日
【CVPR2021】通道注意力的高效移动网络设计
专知会员服务
18+阅读 · 2021年4月27日
【NeurIPS2020】针对弱监督目标检测的综合注意力自蒸馏
专知会员服务
31+阅读 · 2020年11月12日
专知会员服务
28+阅读 · 2020年10月24日
增强CNN学习能力的Backbone:CSPNet
CVer
4+阅读 · 2020年4月1日
从三大顶会论文看百变Self-Attention
PaperWeekly
17+阅读 · 2019年11月11日
Arxiv
19+阅读 · 2021年4月8日
VIP会员
相关VIP内容
【AAAI2022】基于双流更新的视觉Transformer动态加速方法
专知会员服务
23+阅读 · 2021年12月11日
【NeurIPS 2021】流形上的注意力机制:规范等变的Transformer
【NeurIPS 2021】寻找视觉Transformer的搜索空间
专知会员服务
13+阅读 · 2021年12月1日
【NeurIPS2021】SOLQ:基于学习查询的物体分割
专知会员服务
9+阅读 · 2021年11月9日
专知会员服务
9+阅读 · 2021年10月17日
专知会员服务
16+阅读 · 2021年7月13日
【CVPR2021】通道注意力的高效移动网络设计
专知会员服务
18+阅读 · 2021年4月27日
【NeurIPS2020】针对弱监督目标检测的综合注意力自蒸馏
专知会员服务
31+阅读 · 2020年11月12日
专知会员服务
28+阅读 · 2020年10月24日
微信扫码咨询专知VIP会员