在目前已发表的自然语言处理预训练技术综述中,大多数文章仅介绍神经网络预训练技术或者极简单介绍传统预训练技术,存在人为割裂自然语言预训练发展历程。为此,以自然语言预训练发展历程为主线,从以下四方面展开工作:首先,依据预训练技术更新路线,介绍了传统自然语言预训练技术与神经网络预训练技术,并对相关技术特点进行分析、比较,从中归纳出自然语言处理技术的发展脉络与趋势;其次,主要从两方面介绍了基于BERT改进的自然语言处理模型,并对这些模型从预训练机制、优缺点、性能等方面进行总结;再者,对自然语言处理的主要应用领域发展进行了介绍,并阐述了自然语言处理目前面临的挑战与相应解决办法;最后,总结工作,预测了自然语言处理的未来发展方向。旨在帮助科研工作者更全面地了解自然语言预训练技术发展历程,继而为新模型、新预训练方法的提出提供一定思路。

http://fcst.ceaj.org/CN/abstract/abstract2823.shtml

成为VIP会员查看完整内容
79

相关内容

专知会员服务
55+阅读 · 2021年10月12日
专知会员服务
49+阅读 · 2021年9月25日
专知会员服务
46+阅读 · 2021年6月26日
专知会员服务
59+阅读 · 2021年5月28日
专知会员服务
69+阅读 · 2021年5月21日
专知会员服务
43+阅读 · 2021年1月18日
专知会员服务
112+阅读 · 2020年12月9日
多模态视觉语言表征学习研究综述
专知会员服务
186+阅读 · 2020年12月3日
【北航】面向自然语言处理的预训练技术研究综述
专知会员服务
111+阅读 · 2020年4月23日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
225+阅读 · 2019年10月12日
多模态视觉语言表征学习研究综述
专知
25+阅读 · 2020年12月3日
【中科院】命名实体识别技术综述
专知
16+阅读 · 2020年4月21日
NLP领域预训练模型的现状及分析
AI科技评论
5+阅读 · 2019年11月1日
Bert最新进展,继续在NLP各领域开花结果!
机器学习算法与Python学习
20+阅读 · 2019年6月11日
站在BERT肩膀上的NLP新秀们(PART II)
AINLP
35+阅读 · 2019年6月8日
自然语言处理中注意力机制综述
Python开发者
11+阅读 · 2019年1月31日
Arxiv
102+阅读 · 2021年6月8日
Arxiv
4+阅读 · 2020年5月25日
Arxiv
29+阅读 · 2020年3月16日
Arxiv
5+阅读 · 2019年10月31日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Arxiv
3+阅读 · 2018年8月27日
VIP会员
相关VIP内容
专知会员服务
55+阅读 · 2021年10月12日
专知会员服务
49+阅读 · 2021年9月25日
专知会员服务
46+阅读 · 2021年6月26日
专知会员服务
59+阅读 · 2021年5月28日
专知会员服务
69+阅读 · 2021年5月21日
专知会员服务
43+阅读 · 2021年1月18日
专知会员服务
112+阅读 · 2020年12月9日
多模态视觉语言表征学习研究综述
专知会员服务
186+阅读 · 2020年12月3日
【北航】面向自然语言处理的预训练技术研究综述
专知会员服务
111+阅读 · 2020年4月23日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
225+阅读 · 2019年10月12日
相关资讯
多模态视觉语言表征学习研究综述
专知
25+阅读 · 2020年12月3日
【中科院】命名实体识别技术综述
专知
16+阅读 · 2020年4月21日
NLP领域预训练模型的现状及分析
AI科技评论
5+阅读 · 2019年11月1日
Bert最新进展,继续在NLP各领域开花结果!
机器学习算法与Python学习
20+阅读 · 2019年6月11日
站在BERT肩膀上的NLP新秀们(PART II)
AINLP
35+阅读 · 2019年6月8日
自然语言处理中注意力机制综述
Python开发者
11+阅读 · 2019年1月31日
相关论文
Arxiv
102+阅读 · 2021年6月8日
Arxiv
4+阅读 · 2020年5月25日
Arxiv
29+阅读 · 2020年3月16日
Arxiv
5+阅读 · 2019年10月31日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Arxiv
3+阅读 · 2018年8月27日
微信扫码咨询专知VIP会员