成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
线性注意力
关注
0
综合
百科
VIP
热门
动态
论文
精华
Unifying Linear-Time Attention via Latent Probabilistic Modelling
Arxiv
0+阅读 · 12月2日
Kimi Linear: An Expressive, Efficient Attention Architecture
Arxiv
0+阅读 · 11月1日
LAWCAT: Efficient Distillation from Quadratic to Linear Attention with Convolution across Tokens for Long Context Modeling
Arxiv
0+阅读 · 11月4日
Error-Free Linear Attention is a Free Lunch: Exact Solution from Continuous-Time Dynamics
Arxiv
0+阅读 · 12月14日
Softmax as Linear Attention in the Large-Prompt Regime: a Measure-based Perspective
Arxiv
0+阅读 · 12月12日
RATTENTION: Towards the Minimal Sliding Window Size in Local-Global Attention Models
Arxiv
0+阅读 · 11月17日
SLA: Beyond Sparsity in Diffusion Transformers via Fine-Tunable Sparse-Linear Attention
Arxiv
0+阅读 · 11月19日
IMSE: Efficient U-Net-based Speech Enhancement using Inception Depthwise Convolution and Amplitude-Aware Linear Attention
Arxiv
0+阅读 · 12月1日
IMSE: Efficient U-Net-based Speech Enhancement using Inception Depthwise Convolution and Amplitude-Aware Linear Attention
Arxiv
0+阅读 · 11月18日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top