废话不多说
本次读者福利由 AutoDL.com 赞助,活动规则:
前 100 名向 brand@seetacloud.com 发送邮件的读者,AutoDL 会直接用邮件回复代金券激活码,访问 AutoDL 官网注册后可无门槛使用代金券。
AutoDL 官网:
https://www.autodl.com/
https://www.gpuhub.com/
姓名
学校名称
研究专业与方向
■ 以下计算均按照 AutoDL 三级会员价计算,AutoDL 默认注册即送 1 个月三级会员,后文有关于会员体系答疑。
■ 以下配置全部搭配有本地 SSD,即主机为纯固态服务器,其中大部分为 NVMe 固态。
01
TESLA A100 80GB
此为 NVLINK 版,整机配置对标 DGX-A100, 租用 8 卡可用显存将线性拓展至 640GB。
02
TESLA A40 48GB
A40 可能是这一代专业卡里最低调的,拥有略高于 3090 的单精度算力和 A100 48%、高于 V100 的半精度算力。AutoDL 很快还会推出有 NVLink 桥加持的 A40,显存可拓展至 96GB,你真的不想试试么?
03
TESLA V100 32GB
V100 作为上一代旗舰专业卡大家一定都很熟了,此为 NVLINK 版,租用多卡显存可线性拓展。
04
RTX 3090 24GB
AutoDL 给当代卡皇提供了多种配套 CPU 规格:内蒙 A 区有 ¥2.28/h 每卡搭配 15 核心 AMD 7543,深圳 A 区有 ¥2.28/h 每卡搭配 14 核心 Intel 金牌 6330,北京 A 区有¥2.28/h每卡搭配 24 核心 AMD 7642,内蒙 A 区和南京新手区有若干 ¥1.88/h~¥1.99/h 搭配 Intel 银牌 CPU。最具性价比的是潮汐算力区,定价 ¥1.69/h 的 3090,配备 256GB 内存,建议同学们去搜一下怎么把内存当硬盘使用,手动狗头。
05
RTX A5000 24GB
A5000很多同学可能都没听说过,但它一定会火起来!相比3090,同样是24GB显存,只在单精度算力上稍逊一筹,潮汐算力区还有同配置、定价1.58/h的A5000,真香。
06
RTX 2080Ti 11GB
过气卡皇不多赘述,重点是可以使用 CUDA_10 跑老算法。
07
TESLA P40 24GB
算力性能稍弱于 2080Ti,但拥有 24GB 显存,可以跑更耗费显存的 CUDA_10 老算法。
08
TITAN Xp 12GB
TITAN Xp 是上上代桌面旗舰,AutoDL 将它定位为低门槛调试卡提供给用户,同学们可以在 Titan Xp 上调试好后,通过实例迁移功能将代码迁移至性能更高的卡上加速。
以上仅列举了 AutoDL 中十几种不同显卡中数量较多的型号,AutoDL 上现有超过 2000 张各型 GPU,甚至包括寒武纪和昇腾。
Q1
用云服务器调试代码不会很浪费钱么?
A
AutoDL 提供无卡模式,即只用一个 CPU 核心创建一个没有 GPU 的容器环境,计价 0.1元/h,线上调试不焦虑。
Q2
训练集太大上传会不会很费劲?
A
AutoDL 支持从阿里云盘和百度网盘下载训练数据,速度可达 10MB/s,配合无卡模式,消除数据焦虑。对于超大数据,还提供移动硬盘物理挂载服务。
Q3
为什么相同配置,在“潮汐算力区”的服务器比其他区便宜这么多?是不是质量不好?
A
AutoDL 潮汐算力区中的服务器,是 B 端客户在大模型训练任务间隔中的周期性闲置资源,与其他区的服务器一样稳定可靠。唯一区别在于潮汐算力区的实例数据保留期仅有 7 天,而其他区均为 30 天。
Q4
III级会员价看起来是比较划算,但没有会员怎么办?会员体系会不会有坑?
A
AutoDL 主要面向学生党,新用户送 1 个月 III 级会员,通过教育邮箱完成学生认证,可获得长期 II 级会员,II 级会员获得的折扣力度仅比 III 级会员低 0.5 折。升 III 级会员门槛也非常低,三个月内充值满 300 元(6月1号以后将降低至 150 元)即可。没有教育邮箱的,也可以私信客服完成学生认证。
详细请查阅文档:
https://www.autodl.com/docs/member/
Q5
没有用过云服务器,怎么上手?
A
参见 AutoDL 帮助文档,你所需要的都在这里:
https://www.autodl.com/docs/
Q6
不知道显卡怎么选型?
A
有不同型号显卡性能测评参考:
充值 100-199 元:
送会员 III 有效期 3 个月
充值 200-999 元:
返充值金额 10% 代金券
充值 1000+ 元:
返充值金额 15% 代金券
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧