成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
自注意力
关注
13
利用注意力机制来“动态”地生成不同连接的权重,这就是自注意力模型(Self-Attention Model). 注意力机制模仿了生物观察行为的内部过程,即一种将内部经验和外部感觉对齐从而增加部分区域的观察精细度的机制。注意力机制可以快速提取稀疏数据的重要特征,因而被广泛用于自然语言处理任务,特别是机器翻译。而自注意力机制是注意力机制的改进,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性
综合
百科
VIP
热门
动态
论文
精华
Faster Neighborhood Attention: Reducing the O(n^2) Cost of Self Attention at the Threadblock Level
Arxiv
0+阅读 · 10月31日
Efficient Training of Transformers for Molecule Property Prediction on Small-scale Datasets
Arxiv
0+阅读 · 9月7日
Self Attention with Temporal Prior: Can We Learn More from Arrow of Time?
Arxiv
0+阅读 · 7月16日
Easy attention: A simple attention mechanism for temporal predictions with transformers
Arxiv
0+阅读 · 5月15日
Self Attention with Temporal Prior: Can We Learn More from Arrow of Time?
Arxiv
0+阅读 · 4月26日
Faster Neighborhood Attention: Reducing the O(n^2) Cost of Self Attention at the Threadblock Level
Arxiv
0+阅读 · 3月22日
Faster Neighborhood Attention: Reducing the O(n^2) Cost of Self Attention at the Threadblock Level
Arxiv
0+阅读 · 3月7日
Self Attention with Temporal Prior: Can We Learn More from Arrow of Time?
Arxiv
0+阅读 · 2023年10月29日
Multi-spectral Entropy Constrained Neural Compression of Solar Imagery
Arxiv
0+阅读 · 2023年10月10日
Easy attention: A simple self-attention mechanism for transformer-based time-series reconstruction and prediction
Arxiv
0+阅读 · 2023年9月22日
Multi-spectral Entropy Constrained Neural Compression of Solar Imagery
Arxiv
0+阅读 · 2023年9月19日
Easy attention: A simple self-attention mechanism for Transformers
Arxiv
0+阅读 · 2023年8月24日
Knowledge-Infused Self Attention Transformers
Arxiv
0+阅读 · 2023年6月23日
When to Use Efficient Self Attention? Profiling Text, Speech and Image Transformer Variants
Arxiv
0+阅读 · 2023年6月14日
Self-Attention in Colors: Another Take on Encoding Graph Structure in Transformers
Arxiv
0+阅读 · 2023年4月21日
参考链接
父主题
注意力机制
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top