成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
混合专家模型
关注
5
综合
百科
VIP
热门
动态
论文
精华
A Survey on Inference Optimization Techniques for Mixture of Experts Models
Arxiv
0+阅读 · 12月18日
A Gated Residual Kolmogorov-Arnold Networks for Mixtures of Experts
Arxiv
0+阅读 · 12月13日
SAME: Learning Generic Language-Guided Visual Navigation with State-Adaptive Mixture of Experts
Arxiv
0+阅读 · 12月7日
Meta-Reinforcement Learning With Mixture of Experts for Generalizable Multi Access in Heterogeneous Wireless Networks
Arxiv
0+阅读 · 12月5日
Convolutional Neural Networks and Mixture of Experts for Intrusion Detection in 5G Networks and beyond
Arxiv
0+阅读 · 12月4日
Mixture of Experts in Image Classification: What's the Sweet Spot?
Arxiv
0+阅读 · 11月27日
Statistical Advantages of Perturbing Cosine Router in Mixture of Experts
Arxiv
0+阅读 · 11月13日
Learning Mixtures of Experts with EM
Arxiv
0+阅读 · 11月9日
WDMoE: Wireless Distributed Mixture of Experts for Large Language Models
Arxiv
0+阅读 · 11月11日
FinTeamExperts: Role Specialized MOEs For Financial Analysis
Arxiv
0+阅读 · 11月7日
Hunyuan-Large: An Open-Source MoE Model with 52 Billion Activated Parameters by Tencent
Arxiv
0+阅读 · 11月6日
DA-MoE: Addressing Depth-Sensitivity in Graph-Level Analysis through Mixture of Experts
Arxiv
0+阅读 · 11月5日
Hunyuan-Large: An Open-Source MoE Model with 52 Billion Activated Parameters by Tencent
Arxiv
0+阅读 · 11月5日
Hunyuan-Large: An Open-Source MoE Model with 52 Billion Activated Parameters by Tencent
Arxiv
0+阅读 · 11月4日
FedMoE-DA: Federated Mixture of Experts via Domain Aware Fine-grained Aggregation
Arxiv
0+阅读 · 11月4日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top