摘要:自然语言处理(Natural language processing, NLP)是人工智能追求的核心,深度学习(deep learning)是近年来发展的主要动力。大多数NLP问题仍然没有解决。语言的组合特性使我们能够表达复杂的思想,但同时也使它难以将足够的标签提供给所有情况下都需要大量数据的算法。无监督语言表示技术的最新进展带来了新的希望。在这个实践教程中,我们将详细介绍这些技术,并了解如何基于预训练和对未标记文本的语言表示进行微调,从而极大地改进NLP学习。具体地说,我们考虑单词嵌入(如word2vec、fastText和GloVe)中的浅表示,以及使用BERT等注意力机制的深表示。我们演示了如何在后续的NLP任务中对这些模型进行预训练和微调的详细流程和最佳实践,这些任务包括寻找同义词和类比、情感分析、问题回答和机器翻译。所有的实践实现都是使用Apache(孵化)MXNet和GluonNLP实现的,其中一部分可以在深入学习时使用。

邀请嘉宾:Aston Zhang, Haibin Lin, Leonard Lausen, Sheng Zha, and Alex Smola

成为VIP会员查看完整内容
Part-4.pdf
Part-3.pdf
Part-2.pdf
Part-1.pdf
14

相关内容

现实生活中常常会有这样的问题:缺乏足够的先验知识,因此难以人工标注类别或进行人工类别标注的成本太高。很自然地,我们希望计算机能代我们完成这些工作,或至少提供一些帮助。根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题,称之为无监督学习
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
209+阅读 · 2020年4月26日
3分钟看懂史上最强NLP模型BERT
新智元
22+阅读 · 2019年2月27日
采用通用语言模型的最新文本分类介绍
AI研习社
6+阅读 · 2018年6月9日
从语言学到深度学习NLP,一文概述自然语言处理
人工智能学家
13+阅读 · 2018年1月28日
教程 | 在Python和TensorFlow上构建Word2Vec词嵌入模型
机器之心
6+阅读 · 2017年11月20日
Arxiv
21+阅读 · 2019年8月21日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
5+阅读 · 2018年6月5日
Arxiv
10+阅读 · 2018年3月22日
Arxiv
5+阅读 · 2018年1月18日
VIP会员
相关VIP内容
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
209+阅读 · 2020年4月26日
相关论文
Arxiv
21+阅读 · 2019年8月21日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
5+阅读 · 2018年6月5日
Arxiv
10+阅读 · 2018年3月22日
Arxiv
5+阅读 · 2018年1月18日
微信扫码咨询专知VIP会员