Pretrained language models have become the standard approach for many NLP tasks due to strong performance, but they are very expensive to train. We propose a simple and efficient learning framework, TLM, that does not rely on large-scale pretraining. Given some labeled task data and a large general corpus, TLM uses task data as queries to retrieve a tiny subset of the general corpus and jointly optimizes the task objective and the language modeling objective from scratch. On eight classification datasets in four domains, TLM achieves results better than or similar to pretrained language models (e.g., RoBERTa-Large) while reducing the training FLOPs by two orders of magnitude. With high accuracy and efficiency, we hope TLM will contribute to democratizing NLP and expediting its development.


翻译:由于业绩优异,预先培训的语言模式已成为许多国家劳工政策任务的标准方法,但培训费用非常昂贵。我们提出了一个简单而高效的学习框架,即TLM,不依赖大规模预培训。根据一些标记的任务数据和大量一般材料,TLM使用任务数据作为查询,检索一般文件的一小部分,并从头到尾共同优化任务目标和语言建模目标。在四个领域的八个分类数据集中,TLM取得的结果优于或类似于预先培训的语言模式(如RoBERTA-Large),同时将培训的FLOP数量减少两个级。我们希望TLM能够非常准确和高效地促进国家劳工政策民主化和加速其发展。

2
下载
关闭预览

相关内容

EMNLP 2021 | 预训练跨语言模型中的大词表构建及使用
专知会员服务
20+阅读 · 2022年1月5日
专知会员服务
81+阅读 · 2021年7月31日
专知会员服务
35+阅读 · 2021年7月7日
专知会员服务
88+阅读 · 2021年6月29日
专知会员服务
123+阅读 · 2020年9月8日
【文章|BERT三步使用NLP迁移学习】NLP Transfer Learning In 3 Steps
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Arxiv
0+阅读 · 2022年1月12日
Arxiv
7+阅读 · 2020年10月9日
Arxiv
5+阅读 · 2019年8月22日
VIP会员
相关VIP内容
EMNLP 2021 | 预训练跨语言模型中的大词表构建及使用
专知会员服务
20+阅读 · 2022年1月5日
专知会员服务
81+阅读 · 2021年7月31日
专知会员服务
35+阅读 · 2021年7月7日
专知会员服务
88+阅读 · 2021年6月29日
专知会员服务
123+阅读 · 2020年9月8日
【文章|BERT三步使用NLP迁移学习】NLP Transfer Learning In 3 Steps
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Top
微信扫码咨询专知VIP会员