成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
自注意力机制
关注
9
综合
百科
VIP
热门
动态
论文
精华
LDA-AQU: Adaptive Query-guided Upsampling via Local Deformable Attention
Arxiv
0+阅读 · 2024年11月29日
Analog In-Memory Computing Attention Mechanism for Fast and Energy-Efficient Large Language Models
Arxiv
0+阅读 · 2024年11月25日
Unveiling the Hidden Structure of Self-Attention via Kernel Principal Component Analysis
Arxiv
0+阅读 · 2024年10月30日
Leveraging Grammar Induction for Language Understanding and Generation
Arxiv
0+阅读 · 2024年10月7日
Neural Click Models for Recommender Systems
Arxiv
0+阅读 · 2024年9月30日
Geometry of Lightning Self-Attention: Identifiability and Dimension
Arxiv
0+阅读 · 2024年8月30日
SODAWideNet++: Combining Attention and Convolutions for Salient Object Detection
Arxiv
0+阅读 · 2024年8月29日
Tree Attention: Topology-aware Decoding for Long-Context Attention on GPU clusters
Arxiv
0+阅读 · 2024年8月7日
Modeling Domain and Feedback Transitions for Cross-Domain Sequential Recommendation
Arxiv
0+阅读 · 2024年8月15日
Restoring Images in Adverse Weather Conditions via Histogram Transformer
Arxiv
0+阅读 · 2024年7月25日
Detecting out-of-distribution text using topological features of transformer-based language models
Arxiv
0+阅读 · 2024年7月18日
SummaryMixing: A Linear-Complexity Alternative to Self-Attention for Speech Recognition and Understanding
Arxiv
0+阅读 · 2024年7月11日
Unveiling the Hidden Structure of Self-Attention via Kernel Principal Component Analysis
Arxiv
0+阅读 · 2024年6月19日
MetaMixer Is All You Need
Arxiv
0+阅读 · 2024年6月4日
When Medical Imaging Met Self-Attention: A Love Story That Didn't Quite Work Out
Arxiv
0+阅读 · 2024年4月18日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top