Recently, a boom of papers have shown extraordinary progress in few-shot learning with various prompt-based models. Such success can give the impression that prompts help models to learn faster in the same way that humans learn faster when provided with task instructions expressed in natural language. In this study, we experiment with over 30 prompts manually written for natural language inference (NLI). We find that models learn just as fast with many prompts that are intentionally irrelevant or even pathologically misleading as they do with instructively "good" prompts. Additionally, we find that model performance is more dependent on the choice of the LM target words (a.k.a. the "verbalizer" that converts LM vocabulary prediction to class labels) than on the text of the prompt itself. In sum, we find little evidence that suggests existing prompt-based models truly understand the meaning of their given prompts.


翻译:最近,大量论文显示,在与各种快速模型的微小学习中取得了非同寻常的进展。这样的成功可以给人一种印象,促使模型学习速度更快,就像人类在以自然语言提供任务指示时学习速度更快一样。在本研究中,我们实验了30多种人工手写自然语言推理(NLI)的提示。我们发现,模型学习速度和许多有意不相干甚至病理误导的提示一样快。此外,我们发现模型性能更取决于LM目标词的选择(a.k.a.verbalizer, 将LM词汇预测转换为类标签的“verbalizer” ), 而不是提示本身的文字。总而言之,我们发现几乎没有证据表明现有的快速模型真正理解其给定的提示的含义。

1
下载
关闭预览

相关内容

专知会员服务
28+阅读 · 2021年8月2日
【干货书】机器学习速查手册,135页pdf
专知会员服务
124+阅读 · 2020年11月20日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
149+阅读 · 2019年10月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
已删除
将门创投
7+阅读 · 2018年11月5日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
4+阅读 · 2018年5月14日
VIP会员
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
已删除
将门创投
7+阅读 · 2018年11月5日
Top
微信扫码咨询专知VIP会员