Prompt tuning is a parameter-efficient method, which freezes all PLM parameters and only prepends some additional tunable tokens called soft prompts to the input text. However, soft prompts heavily rely on a better initialization and may easily result in overfitting under few-shot settings, which causes prompt-tuning performing much worse than fine-tuning. To address the above issues, this paper proposes a novel Self-sUpervised Meta-prompt learning framework with MEtagradient Regularization for few shot generalization (SUMMER). We leverage self-supervised meta-learning to better initialize soft prompts and curriculum-based task augmentation is further proposed to enrich the meta-task distribution. Besides, a novel meta-gradient regularization method is integrated into the meta-prompt learning framework, which meta-learns to transform the raw gradient during few-shot learning into a domain-generalizable direction, thus alleviating the problem of overfitting. Extensive experiments show that SUMMER achieves better performance for different few-shot downstream tasks, and also exhibits a stronger domain generalization ability.


翻译:提示调整是一种参数高效的方法,它将所有PLM参数固定,仅在输入文本前添加一些附加的可调节标记,称为软提示。然而,软提示在很大程度上依赖于更好的初始化,并且在少样本设置下很容易导致过拟合,这导致提示调整比微调表现得更差。为了解决上述问题,本文提出了一种新颖的自监督元提示学习框架,其中包含MEtagradient正则化,用于少样本泛化(SUMMER)。我们利用自监督元学习更好地初始化软提示,并进一步提出基于课程的任务增强来丰富元任务分布。此外,新颖的元梯度正则化方法集成到元提示学习框架中,元学习将原始梯度转化为通用域方向,从而缓解过拟合问题。广泛的实验表明,SUMMER在不同的少样本下游任务中实现了更好的性能,并且还展现出更强的域泛化能力。

0
下载
关闭预览

相关内容

ChatAug: 利用ChatGPT进行文本数据增强
专知会员服务
80+阅读 · 2023年3月4日
【CVPR 2022】视觉提示调整(VPT),Vision Prompt Tuning
专知会员服务
29+阅读 · 2022年3月12日
专知会员服务
16+阅读 · 2021年8月24日
专知会员服务
34+阅读 · 2020年11月29日
专知会员服务
18+阅读 · 2020年9月11日
近期必读的七篇 ECCV 2020【少样本学习(FSL)】相关论文
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月18日
Arxiv
0+阅读 · 2023年5月18日
Arxiv
14+阅读 · 2022年5月6日
Conditional Prompt Learning for Vision-Language Models
Arxiv
13+阅读 · 2022年3月10日
Arxiv
38+阅读 · 2020年12月2日
VIP会员
相关VIP内容
ChatAug: 利用ChatGPT进行文本数据增强
专知会员服务
80+阅读 · 2023年3月4日
【CVPR 2022】视觉提示调整(VPT),Vision Prompt Tuning
专知会员服务
29+阅读 · 2022年3月12日
专知会员服务
16+阅读 · 2021年8月24日
专知会员服务
34+阅读 · 2020年11月29日
专知会员服务
18+阅读 · 2020年9月11日
近期必读的七篇 ECCV 2020【少样本学习(FSL)】相关论文
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
相关论文
Top
微信扫码咨询专知VIP会员