神经网络的发展以Relu激活函数的提出为分水岭,可分为浅层神经网络和深度学习两个阶段。浅层神经网络阶段最重要的任务是解决梯度不稳定的问题,在这个问题未被妥善解决之前,神经网络受限于激活函数梯度过大或过小、以及神经元全连接对高算力的要求,因此应用性能不佳,而属于非神经网络的支持向量机(SVM)是当时解决人工智能模式识别的主流方法。

  过去10年,深度学习经历了从多样化发展到融合统一的阶段。深度学习时代的开启依托于2011年Relu激活函数被提出、梯度消失问题被大幅缓解,此后深度学习算法和应用的发展均突飞猛进。最初卷积神经网络(CNN)通过对高层次特征的提取和压缩,擅长图像分类等任务;循环神经网络(RNN)通过对时序信息的提取,擅长文字、语音识别和理解等任务。2017年Transformer的提出让深度学习进入了大模型时代、2020年VisionTransformer的提出让深度学习进入了多模态时代。由于Transformer在大数据并行计算方面具备优势,且训练数据增长后对模型精度提升明显,自此各模态和各任务底层算法被统一为Transformer架构。     深度学习底层算法发展放缓,数据无监督学习、数据生成以及高算力芯片成为行业发展的重点方向。目前深度学习算法主要是基于Transformer骨干网络来进行分支网络的创新。如OpenAI在多模态主干网络CLIP的基础上引入扩散模型,即训练出能完成语义图像生成和编辑的DALL〃E2,引发AIGC浪潮;在GPT-3模型基础上引入了人类反馈强化学习方法(RLHF),训练出InstructGPT模型,并据此发布了对话机器人ChatGPT,引起了互联网用户的注意。但随着Transformer基本完成底层算法统一之后,整个行业底层算法发展速度开始放缓,静待骨干网络的下一次突破。同时基于Transformer对大数据的需求,催生了无监督学习、高算力芯片的发展。  

成为VIP会员查看完整内容
151

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【ChatGPT系列报告】AIGC & ChatGPT 发展报告,27页ppt
专知会员服务
346+阅读 · 2023年2月18日
【ChatGPT系列报告】AIGC专题二:ChatGPT更懂人类的叙事
专知会员服务
169+阅读 · 2023年2月15日
AIGC的技术发展和应用:ChatGPT,20页pdf
专知会员服务
171+阅读 · 2023年2月13日
ChatGPT与AIGC深度报告:引领AI新浪潮,AIGC商业化启程
专知会员服务
179+阅读 · 2023年2月9日
生成对抗网络,10页pdf
专知会员服务
31+阅读 · 2022年11月23日
深度学习简史:从感知机到Transformer
专知会员服务
96+阅读 · 2022年6月1日
人大最新《基于Transformer 的视频语言预训练》综述论文
专知会员服务
45+阅读 · 2021年9月27日
【文本分类大综述:从浅层到深度学习,35页pdf】
专知会员服务
183+阅读 · 2020年8月6日
深度学习简史:从感知机到Transformer
专知
6+阅读 · 2022年6月1日
从感知机到Transformer,一文概述深度学习简史
PaperWeekly
7+阅读 · 2022年5月31日
赛尔笔记 | 多模态信息抽取简述
专知
27+阅读 · 2020年4月12日
【工大SCIR笔记】多模态信息抽取简述
深度学习自然语言处理
18+阅读 · 2020年4月3日
【深度学习】一文看尽深度学习各领域最新突破
人工智能学家
42+阅读 · 2019年4月24日
基于深度学习的NLP 32页最新进展综述,190篇参考文献
人工智能学家
27+阅读 · 2018年12月4日
从0到1,这篇深度学习综述送给你!
机器学习算法与Python学习
27+阅读 · 2018年6月13日
最全的DNN概述论文:详解前馈、卷积和循环神经网络技术
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
1+阅读 · 2023年2月20日
Arxiv
0+阅读 · 2023年2月17日
Arxiv
29+阅读 · 2022年9月10日
Arxiv
17+阅读 · 2022年2月23日
Arxiv
102+阅读 · 2021年6月8日
Arxiv
19+阅读 · 2021年4月8日
VIP会员
相关VIP内容
【ChatGPT系列报告】AIGC & ChatGPT 发展报告,27页ppt
专知会员服务
346+阅读 · 2023年2月18日
【ChatGPT系列报告】AIGC专题二:ChatGPT更懂人类的叙事
专知会员服务
169+阅读 · 2023年2月15日
AIGC的技术发展和应用:ChatGPT,20页pdf
专知会员服务
171+阅读 · 2023年2月13日
ChatGPT与AIGC深度报告:引领AI新浪潮,AIGC商业化启程
专知会员服务
179+阅读 · 2023年2月9日
生成对抗网络,10页pdf
专知会员服务
31+阅读 · 2022年11月23日
深度学习简史:从感知机到Transformer
专知会员服务
96+阅读 · 2022年6月1日
人大最新《基于Transformer 的视频语言预训练》综述论文
专知会员服务
45+阅读 · 2021年9月27日
【文本分类大综述:从浅层到深度学习,35页pdf】
专知会员服务
183+阅读 · 2020年8月6日
相关资讯
深度学习简史:从感知机到Transformer
专知
6+阅读 · 2022年6月1日
从感知机到Transformer,一文概述深度学习简史
PaperWeekly
7+阅读 · 2022年5月31日
赛尔笔记 | 多模态信息抽取简述
专知
27+阅读 · 2020年4月12日
【工大SCIR笔记】多模态信息抽取简述
深度学习自然语言处理
18+阅读 · 2020年4月3日
【深度学习】一文看尽深度学习各领域最新突破
人工智能学家
42+阅读 · 2019年4月24日
基于深度学习的NLP 32页最新进展综述,190篇参考文献
人工智能学家
27+阅读 · 2018年12月4日
从0到1,这篇深度学习综述送给你!
机器学习算法与Python学习
27+阅读 · 2018年6月13日
最全的DNN概述论文:详解前馈、卷积和循环神经网络技术
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
相关论文
微信扫码咨询专知VIP会员