Fast.ai推出NLP最新迁移学习方法「微调语言模型」,可将误差减少超过20%!

2018 年 1 月 21 日 机器学习研究会

可以这样说,迁移学习已经促使计算机视觉领域发生了具有革命性的变化,但对于自然语言处理(NLP)中的现有方法来说,仍然需要从零开始对其进行针对于特定任务的修改和训练。我们提出了微调语言模型(Fine-tuned Language Models,FitLaM),这是一种有效的迁移学习方法,可以应用于NLP中的任何任务,并且引入一些关键技术以对现有最先进的语言模型进行微调。我们的方法在五个文本分类任务上的性能表现要明显优于现有最先进的技术,在大多数数据集上的实施中能够将误差减少18-24%。我们对我们的预训练模型和代码进行了开源设置,以便社区采用,使该方法具有更为广泛的应用。

 


迁移学习对于计算机视觉(CV)的发展起着很大的作用。应用型CV模型(包括目标检测、分类和分割)很少是从零开始进行训练的,而是对已经在ImageNet、MS-COCO和其他数据集上进行预训练的模型进行细微调整得到的(Sharif Razavian等人于2014年、Long等人于2015年、He等人于2016年、Huang等人于2017年提出)。


转自:雷克世界


完整内容请点击“阅读原文”

登录查看更多
6

相关内容

迁移学习(Transfer Learning)是一种机器学习方法,是把一个领域(即源领域)的知识,迁移到另外一个领域(即目标领域),使得目标领域能够取得更好的学习效果。迁移学习(TL)是机器学习(ML)中的一个研究问题,着重于存储在解决一个问题时获得的知识并将其应用于另一个但相关的问题。例如,在学习识别汽车时获得的知识可以在尝试识别卡车时应用。尽管这两个领域之间的正式联系是有限的,但这一领域的研究与心理学文献关于学习转移的悠久历史有关。从实践的角度来看,为学习新任务而重用或转移先前学习的任务中的信息可能会显着提高强化学习代理的样本效率。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【复旦大学-SP2020】NLP语言模型隐私泄漏风险
专知会员服务
24+阅读 · 2020年4月20日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
【文章|BERT三步使用NLP迁移学习】NLP Transfer Learning In 3 Steps
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
GLUE排行榜上全面超越BERT的模型近日公布了!
机器之心
9+阅读 · 2019年2月13日
预训练模型迁移学习
极市平台
11+阅读 · 2018年11月6日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
采用通用语言模型的最新文本分类介绍
AI研习社
6+阅读 · 2018年6月9日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
8+阅读 · 2018年11月21日
Few Shot Learning with Simplex
Arxiv
5+阅读 · 2018年7月27日
Arxiv
5+阅读 · 2018年1月18日
Arxiv
10+阅读 · 2017年12月29日
VIP会员
相关论文
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
8+阅读 · 2018年11月21日
Few Shot Learning with Simplex
Arxiv
5+阅读 · 2018年7月27日
Arxiv
5+阅读 · 2018年1月18日
Arxiv
10+阅读 · 2017年12月29日
Top
微信扫码咨询专知VIP会员