deepseek模型密集更新,用户数将持续高速增长   自2024年起,DeepSeek在AI领域迅速掘起并不断选代。2024年12月底至2025年1月底,更新尤为密集,发布了参数众多且性能提升的V3、支持思维链输出和模型训练的R1,以及深耕图像领域的视觉和多模态模型。2024年12月底到2025年1月底,全球用户数从34.7万激增至1.19亿。与ChatGPT相比,DeepSeek仅用一年多就达到ChatGPT两年的用户规模,在国内1月跃居月均活跃用户数榜首,APP下载量也大幅增长。   Deepseek具备低成本、高性能、强推理三大特点   DeepSeek-V3通过算法创新和工程优化大幅提升模型效率,从而降低成本,提高性价比。DeepSeekV3训练成本仅为557万美元,耗时不到两个月。DeepSeek通用及推理模型成本相较于OpenA等同类模型大幅下降。DeepSeek-R1在继承了V3的创新架构的基础上,在后训练阶段大规模使用了强化学习技术,自动选择有价值的数据进行标注和训练,减少数据标注量和计算资源浪费,并在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,DeepSeek在AIME2024测评中上获得79.8%的pass@1得分,略微超过OpenAl-01;在MATH-500上,获得了97.3%的得分,与OpenAl-01性能相当,并且显著优于其他模型   DeepSeek驱动模型平价化,建议关注算力、AI应用和端侧的投资机会   1)算力:随着更多用户对DeepSeek的使用,以及未来更多AI应用的不断涌现,对算力的需求呈现出几何级增长超势。AI技术的进步,虽然模型效率提高了,但不断增长的用户和应用数量,却对算力资源提出了更高要求,消耗也随之剧增。2)B端应用:AlAgent正在对传统SaaS应用进行全面重构。与传统知识库结构化管理模式相比,AlAgent的向量数据库具备强大的自主学习能力,能够自动理解文档内容,实现更加高效的知识管理,为企业的数字化转型提供了有力支持。C端应用:作为生成式AI的重要商业化应用,AlAgent在电商、教育、旅游、酒店以及客服等多个行业得到了广泛应用。3)端侧:AI正在内容、应用、硬件、生态上影响世界,AlAgent从“数字”走向“具身”随着市场发展,大模型更广泛地接入硬件产品,做好软硬件协同发展是未来竞争的关键。

成为VIP会员查看完整内容
24

相关内容

深度求索(DeepSeek),全称杭州深度求索人工智能基础技术研究有限公司,是中国的一家人工智能与大型语言模型公司。2025年1月10日,DeepSeek为iOS和安卓系统发布其首款免费的基于DeepSeek-R1模型聊天机器人程序。截止到27日,DeepSeek-R1超过ChatGPT成为美区iOS应用商店免费应用程序榜首[3],并导致英伟达股价大跌18%[4][5]。DeepSeek成功挑战实力更强、更为著名的竞品从而被认为是颠覆人工智能[6]、打响了全球人工智能领域竞赛的第一枪[7]、引领人工智能下边缘政策新纪元
DeepSeek系列报告:AI编程或为B端最先崛起的AI应用
专知会员服务
3+阅读 · 今天11:53
SFT 记忆,RL 泛化:基础模型后训练的比较研究
专知会员服务
21+阅读 · 2月3日
130亿参数,8个A100训练,UC伯克利发布对话模型Koala
专知会员服务
44+阅读 · 2023年4月5日
UC San Diego清华大学CVPR2022《具身人工智能》教程,260+页ppt
多项NLP任务新SOTA,Facebook提出预训练模型BART
机器之心
22+阅读 · 2019年11月4日
AutoML研究综述:让AI学习设计AI
机器之心
14+阅读 · 2019年5月7日
万字长文概述NLP中的深度学习技术
全球人工智能
12+阅读 · 2019年2月28日
大数据分析研究组开源Easy Machine Learning系统
中国科学院网络数据重点实验室
16+阅读 · 2017年6月13日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
40+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Arxiv
164+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
430+阅读 · 2023年3月31日
Arxiv
22+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
Arxiv
11+阅读 · 2018年7月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
40+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员