成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
稀疏激活
关注
1
综合
百科
VIP
热门
动态
论文
精华
InterpretCC: Conditional Computation for Inherently Interpretable Neural Networks
Arxiv
0+阅读 · 2月5日
MoE-Infinity: Activation-Aware Expert Offloading for Efficient MoE Serving
Arxiv
0+阅读 · 1月25日
FedMS: Federated Learning with Mixture of Sparsely Activated Foundations Models
Arxiv
0+阅读 · 2023年12月26日
Sparse Modular Activation for Efficient Sequence Modeling
Arxiv
0+阅读 · 2023年7月11日
Sparse Modular Activation for Efficient Sequence Modeling
Arxiv
0+阅读 · 2023年7月9日
SkillNet-X: A Multilingual Multitask Model with Sparsely Activated Skills
Arxiv
0+阅读 · 2023年6月28日
Sparse Modular Activation for Efficient Sequence Modeling
Arxiv
0+阅读 · 2023年6月19日
Soft Merging of Experts with Adaptive Routing
Arxiv
0+阅读 · 2023年6月6日
A Hybrid Tensor-Expert-Data Parallelism Approach to Optimize Mixture-of-Experts Training
Arxiv
0+阅读 · 2023年5月14日
Towards Being Parameter-Efficient: A Stratified Sparsely Activated Transformer with Dynamic Capacity
Arxiv
0+阅读 · 2023年5月3日
Conditional Adapters: Parameter-efficient Transfer Learning with Fast Inference
Arxiv
0+阅读 · 2023年4月11日
Federated Learning Based Multilingual Emoji Prediction In Clean and Attack Scenarios
Arxiv
0+阅读 · 2023年4月10日
MURANA: A Generic Framework for Stochastic Variance-Reduced Optimization
Arxiv
0+阅读 · 2023年3月6日
Sparse Upcycling: Training Mixture-of-Experts from Dense Checkpoints
Arxiv
0+阅读 · 2023年2月17日
Sharper analysis of sparsely activated wide neural networks with trainable biases
Arxiv
0+阅读 · 2023年1月1日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top