成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
Softmax
关注
0
综合
百科
VIP
热门
动态
论文
精华
Lower bounds on transformers with infinite precision
Arxiv
0+阅读 · 2024年12月28日
MultiMax: Sparse and Multi-Modal Attention Learning
Arxiv
0+阅读 · 1月8日
learning discriminative features from spectrograms using center loss for speech emotion recognition
Arxiv
0+阅读 · 1月2日
Accelerating Private Large Transformers Inference through Fine-grained Collaborative Computation
Arxiv
1+阅读 · 2024年12月21日
A Flexible Template for Edge Generative AI with High-Accuracy Accelerated Softmax & GELU
Arxiv
0+阅读 · 2024年12月9日
Bridging the Divide: Reconsidering Softmax and Linear Attention
Arxiv
0+阅读 · 2024年12月9日
Counting Like Transformers: Compiling Temporal Counting Logic Into Softmax Transformers
Arxiv
0+阅读 · 2024年12月1日
SoftmAP: Software-Hardware Co-design for Integer-Only Softmax on Associative Processors
Arxiv
0+阅读 · 2024年11月26日
Selective Attention: Enhancing Transformer through Principled Context Control
Arxiv
0+阅读 · 2024年11月19日
Topkima-Former: Low-energy, Low-Latency Inference for Transformers using top-k In-memory ADC
Arxiv
0+阅读 · 2024年11月20日
Fast Convergence of Softmax Policy Mirror Ascent
Arxiv
0+阅读 · 2024年11月18日
Making Sigmoid-MSE Great Again: Output Reset Challenges Softmax Cross-Entropy in Neural Network Classification
Arxiv
0+阅读 · 2024年11月18日
ConSmax: Hardware-Friendly Alternative Softmax with Learnable Parameters
Arxiv
0+阅读 · 2024年11月15日
Calibration of ordinal regression networks
Arxiv
0+阅读 · 2024年11月15日
Breaking the Low-Rank Dilemma of Linear Attention
Arxiv
0+阅读 · 2024年11月14日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top