Large Language Models (LLMs) are popular for their impressive abilities, but the need for model-specific fine-tuning or task-specific prompt engineering can hinder their generalization. We propose UPRISE (Universal Prompt Retrieval for Improving zero-Shot Evaluation), which tunes a lightweight and versatile retriever that automatically retrieves prompts for a given zero-shot task input. Specifically, we demonstrate universality in a cross-task and cross-model scenario: the retriever is tuned on a diverse set of tasks, but tested on unseen task types; we use a small frozen LLM, GPT-Neo-2.7B, for tuning the retriever, but test the retriever on different LLMs of much larger scales, such as BLOOM-7.1B, OPT-66B and GPT3-175B. Additionally, we show that UPRISE mitigates the hallucination problem in our experiments with ChatGPT, suggesting its potential to improve even the strongest LLMs. Our model and code are available at https://github.com/microsoft/LMOps.


翻译:大型语言模型因其卓越的能力备受欢迎,但需要对模型进行特定的微调或任务特定的提示工程,这可能会影响它们的泛化能力。我们提出了UPRISE(Universal Prompt Retrieval for Improving zero-Shot Evaluation),它通过调整轻量级且通用的提示检索器,自动检索给定的零样本任务输入的提示。具体地,我们展示了跨任务和跨模型场景中的通用性:检索器在多种任务上进行调整,但在未见过的任务类型上进行测试;我们使用一个较小的冻结LLM,GPT-Neo-2.7B,在调整检索器方面,但在不同的比它大得多的LLM上测试检索器,如BLOOM-7.1B、OPT-66B和GPT3-175B。此外,我们还展示了UPRISE在ChatGPT的实验中缓解了幻觉问题,这表明它有可能提高即使是最强的LLM的表现。我们的模型和代码可在https://github.com/microsoft/LMOps上获取。

0
下载
关闭预览

相关内容

百篇论文纵览大型语言模型最新研究进展
专知会员服务
68+阅读 · 2023年3月31日
【CVPR 2022】视觉提示调整(VPT),Vision Prompt Tuning
专知会员服务
28+阅读 · 2022年3月12日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
IJCAI 2022 | 使用陈述句进行视觉问答的Prompt Tuning
谷歌&HuggingFace| 零样本能力最强的语言模型结构
夕小瑶的卖萌屋
0+阅读 · 2022年6月23日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月10日
Arxiv
14+阅读 · 2022年5月6日
VIP会员
相关VIP内容
百篇论文纵览大型语言模型最新研究进展
专知会员服务
68+阅读 · 2023年3月31日
【CVPR 2022】视觉提示调整(VPT),Vision Prompt Tuning
专知会员服务
28+阅读 · 2022年3月12日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员