成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
自注意力机制
关注
9
综合
百科
VIP
热门
动态
论文
精华
MetaFormer:宏观架构才是通用视觉模型真正需要的!
极市平台
0+阅读 · 2022年10月30日
各种各样神奇的自注意力机制(Self-attention)变形
PaperWeekly
1+阅读 · 2022年10月15日
ECCV 2022 | 在视觉Transformer上进行递归,不增参数,计算量还少
机器之心
0+阅读 · 2022年7月28日
ICLR 2022 | 基于对抗自注意力机制的预训练语言模型
PaperWeekly
1+阅读 · 2022年7月6日
新注意力机制!LITv2:具有HiLo注意力的快速视觉Transformer
CVer
0+阅读 · 2022年6月2日
即插即用!英伟达提出FAN:提升视觉Transformer和CNN的鲁棒性和准确性
CVer
0+阅读 · 2022年5月2日
超越Swin!百度&港大提出BOAT:双边局部注意力视觉Transformer
CVer
0+阅读 · 2022年4月28日
媲美全局注意力!百度、港大提出双边局部注意力ViT:引入特征空间,显著降低计算量
PaperWeekly
0+阅读 · 2022年4月28日
引入特征空间,显著降低计算量:双边局部注意力ViT性能媲美全局注意力
机器之心
1+阅读 · 2022年4月27日
SepViT:可分离视觉Transformer
CVer
0+阅读 · 2022年4月18日
CVPR 2022|Self-Attention和CNN的优雅集成!清华大学等提出ACmix,性能速度全面提升!
极市平台
1+阅读 · 2022年4月11日
CVPR 2022 | 清华开源ACmix:自注意力和CNN的融合!性能速度全面提升!
CVer
0+阅读 · 2022年4月10日
CVPR 2022 Oral | 全新视觉Transformer主干!NUS&字节跳动提出Shunted Transformer
CVer
0+阅读 · 2022年4月6日
Transformer性能优化:运算和显存
PaperWeekly
1+阅读 · 2022年3月29日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top