成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
混合专家模型
关注
5
综合
百科
VIP
热门
动态
论文
精华
Statistical Advantages of Perturbing Cosine Router in Mixture of Experts
Arxiv
0+阅读 · 11月13日
Learning Mixtures of Experts with EM
Arxiv
0+阅读 · 11月9日
WDMoE: Wireless Distributed Mixture of Experts for Large Language Models
Arxiv
0+阅读 · 11月11日
FinTeamExperts: Role Specialized MOEs For Financial Analysis
Arxiv
0+阅读 · 11月7日
Hunyuan-Large: An Open-Source MoE Model with 52 Billion Activated Parameters by Tencent
Arxiv
0+阅读 · 11月6日
DA-MoE: Addressing Depth-Sensitivity in Graph-Level Analysis through Mixture of Experts
Arxiv
0+阅读 · 11月5日
Hunyuan-Large: An Open-Source MoE Model with 52 Billion Activated Parameters by Tencent
Arxiv
0+阅读 · 11月5日
Hunyuan-Large: An Open-Source MoE Model with 52 Billion Activated Parameters by Tencent
Arxiv
0+阅读 · 11月4日
FedMoE-DA: Federated Mixture of Experts via Domain Aware Fine-grained Aggregation
Arxiv
0+阅读 · 11月4日
Sigmoid Gating is More Sample Efficient than Softmax Gating in Mixture of Experts
Arxiv
0+阅读 · 11月2日
Boosting Code-Switching ASR with Mixture of Experts Enhanced Speech-Conditioned LLM
Arxiv
0+阅读 · 10月31日
Stealing User Prompts from Mixture of Experts
Arxiv
0+阅读 · 10月30日
MoESD: Mixture of Experts Stable Diffusion to Mitigate Gender Bias
Arxiv
0+阅读 · 10月24日
Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts
Arxiv
0+阅读 · 10月14日
Semi-Supervised Learning of Noisy Mixture of Experts Models
Arxiv
0+阅读 · 10月11日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top