成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
位置嵌入
关注
0
综合
百科
VIP
热门
动态
论文
精华
Benchmarking Rotary Position Embeddings for Automatic Speech Recognition
Arxiv
0+阅读 · 1月10日
Fourier Position Embedding: Enhancing Attention's Periodic Extension for Length Generalization
Arxiv
0+阅读 · 1月2日
Fast Gradient Computation for RoPE Attention in Almost Linear Time
Arxiv
0+阅读 · 2024年12月31日
Fourier Position Embedding: Enhancing Attention's Periodic Extension for Length Generalization
Arxiv
1+阅读 · 2024年12月23日
Fast Gradient Computation for RoPE Attention in Almost Linear Time
Arxiv
1+阅读 · 2024年12月23日
Wonderful Matrices: Combining for a More Efficient and Effective Foundation Model Architecture
Arxiv
1+阅读 · 2024年12月20日
Wonderful Matrices: Combining for a More Efficient and Effective Foundation Model Architecture
Arxiv
1+阅读 · 2024年12月18日
Timer-XL: Long-Context Transformers for Unified Time Series Forecasting
Arxiv
1+阅读 · 2024年12月18日
Wonderful Matrices: Combining for a More Efficient and Effective Foundation Model Architecture
Arxiv
1+阅读 · 2024年12月16日
Understanding the RoPE Extensions of Long-Context LLMs: An Attention Perspective
Arxiv
1+阅读 · 2024年12月12日
Circuit Complexity Bounds for RoPE-based Transformer Architecture
Arxiv
0+阅读 · 2024年12月1日
Circuit Complexity Bounds for RoPE-based Transformer Architecture
Arxiv
0+阅读 · 2024年11月12日
Can Custom Models Learn In-Context? An Exploration of Hybrid Architecture Performance on In-Context Learning Tasks
Arxiv
0+阅读 · 2024年11月6日
Timer-XL: Long-Context Transformers for Unified Time Series Forecasting
Arxiv
0+阅读 · 2024年11月6日
Understanding the RoPE Extensions of Long-Context LLMs: An Attention Perspective
Arxiv
0+阅读 · 2024年10月29日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top