成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
Horovod
关注
1
Horovod是针对TensorFlow,Keras,PyTorch和MXNet的分布式培训框架。Horovod的目标是使分布式深度学习快速且易于使用。
综合
百科
VIP
热门
动态
论文
精华
A Parallel Workflow for Polar Sea-Ice Classification using Auto-labeling of Sentinel-2 Imagery
Arxiv
0+阅读 · 2024年3月19日
h-analysis and data-parallel physics-informed neural networks
Arxiv
0+阅读 · 2023年8月23日
h-analysis and data-parallel physics-informed neural networks
Arxiv
0+阅读 · 2023年8月22日
$h$-analysis and data-parallel physics-informed neural networks
Arxiv
0+阅读 · 2023年2月17日
A Container-Based Workflow for Distributed Training of Deep Learning Algorithms in HPC Clusters
Arxiv
0+阅读 · 2022年11月14日
A Container-Based Workflow for Distributed Training of Deep Learning Algorithms in HPC Clusters
Arxiv
0+阅读 · 2022年8月4日
GMI-DRL: Empowering Multi-GPU Deep Reinforcement Learning with GPU Spatial Multiplexing
Arxiv
0+阅读 · 2022年6月16日
Modern Distributed Data-Parallel Large-Scale Pre-training Strategies For NLP models
Arxiv
0+阅读 · 2022年6月13日
BAGUA: Scaling up Distributed Learning with System Relaxations
Arxiv
0+阅读 · 2021年11月25日
BlueFog: Make Decentralized Algorithms Practical for Optimization and Deep Learning
Arxiv
0+阅读 · 2021年11月8日
Hoplite: Efficient and Fault-Tolerant Collective Communication for Task-Based Distributed Systems
Arxiv
1+阅读 · 2021年9月28日
BAGUA: Scaling up Distributed Learning with System Relaxations
Arxiv
0+阅读 · 2021年7月12日
BAGUA: Scaling up Distributed Learning with System Relaxations
Arxiv
0+阅读 · 2021年7月6日
BAGUA: Scaling up Distributed Learning with System Relaxations
Arxiv
0+阅读 · 2021年7月3日
CrossoverScheduler: Overlapping Multiple Distributed Training Applications in a Crossover Manner
Arxiv
0+阅读 · 2021年3月14日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top