Large language models have recently been shown to attain reasonable zero-shot generalization on a diverse set of tasks. It has been hypothesized that this is a consequence of implicit multitask learning in language model training. Can zero-shot generalization instead be directly induced by explicit multitask learning? To test this question at scale, we develop a system for easily mapping general natural language tasks into a human-readable prompted form. We convert a large set of supervised datasets, each with multiple prompts using varying natural language. These prompted datasets allow for benchmarking the ability of a model to perform completely unseen tasks specified in natural language. We fine-tune a pretrained encoder-decoder model on this multitask mixture covering a wide variety of tasks. The model attains strong zero-shot performance on several standard datasets, often outperforming models 16x its size. Further, our approach attains strong performance on a subset of tasks from the BIG-Bench benchmark, outperforming models 6x its size. All prompts and trained models are available at github.com/bigscience-workshop/promptsource/.


翻译:大型语言模型最近被展示为对多种任务进行合理的零点概括化。 假设这是语言模型培训中隐含的多任务学习的结果。 能够直接通过明确的多任务学习来引导零点概括化吗? 为了大规模测试这一问题, 我们开发了一个系统, 方便地将一般自然语言任务绘图成一种人类可读的促动形式。 我们将一套庞大的监督数据集转换成一套数据集, 每套数据集都有多种自然语言的多种提示。 这些驱动数据集允许将模型执行自然语言规定的完全不可见任务的能力作为基准。 我们精细调整了这一多任务混合物的预先训练的编码- 解密模型, 涵盖各种各样的任务。 该模型在若干标准数据集上取得了强力的零点性表现, 通常超过其16x大小的模型。 此外, 我们的方法在BIG- Bennch基准的一组任务上取得了很强的绩效表现, 超过其6x大小的模型。 所有提示和经过培训的模型都在 Github. com/ biscience-workshop/ promptpress/ 中提供。

1
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2021年7月15日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
如何评测AI系统?
StarryHeavensAbove
4+阅读 · 2018年5月19日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
论文浅尝 | Learning with Noise: Supervised Relation Extraction
开放知识图谱
3+阅读 · 2018年1月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年12月6日
Arxiv
8+阅读 · 2021年3月2日
Arxiv
10+阅读 · 2017年7月4日
VIP会员
相关VIP内容
专知会员服务
31+阅读 · 2021年7月15日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
如何评测AI系统?
StarryHeavensAbove
4+阅读 · 2018年5月19日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
论文浅尝 | Learning with Noise: Supervised Relation Extraction
开放知识图谱
3+阅读 · 2018年1月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员