成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
自注意力机制
关注
9
综合
百科
VIP
热门
动态
论文
精华
AAAI 2020论文解读:关注实体以更好地理解文本
AI科技评论
17+阅读 · 2019年11月20日
计算机视觉"新"范式: Transformer | NLP和CV能用同一种范式来表达吗?
AI科技评论
1+阅读 · 2020年10月17日
资源 | 带自注意力机制的生成对抗网络,实现效果怎样?
机器之心
9+阅读 · 2018年6月6日
预训练模型ProphetNet:根据未来文本信息进行自然语言生成
AINLP
1+阅读 · 2020年2月27日
想了解推荐系统最新研究进展?请收好这16篇论文
中国人工智能学会
2+阅读 · 2018年9月28日
Transformer性能优化:运算和显存
PaperWeekly
1+阅读 · 2022年3月29日
【推荐系统】BERT4Rec:使用Bert进行序列推荐
深度学习自然语言处理
1+阅读 · 2020年10月30日
Swin-Transformer应该如何更好地引入全局信息?MoA-Transformer:一种多分辨率重叠注意模块
极市平台
0+阅读 · 2022年2月8日
自然语言处理中的自注意力机制(Self-Attention Mechanism)
PaperWeekly
22+阅读 · 2018年3月28日
深度剖析知识增强语义表示模型——ERNIE
AINLP
1+阅读 · 2019年12月14日
全新轻量级ViT!LVT:具有增强自注意力的Lite视觉Transformer
CVer
0+阅读 · 2021年12月23日
清华大学提出ACmix | 这才是Self-Attention与CNN正确的融合范式,性能速度全面提升
专知
1+阅读 · 2021年12月3日
引入特征空间,显著降低计算量:双边局部注意力ViT性能媲美全局注意力
机器之心
1+阅读 · 2022年4月27日
FAGAN:完全注意力机制(Full Attention)GAN,Self-attention+GAN
专知
32+阅读 · 2018年8月14日
腾讯开源了 | 微信也在用的Transformer加速推理工具(附源码链接)
计算机视觉战队
0+阅读 · 2020年4月29日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top