Large pretrained language models (LMs) have shown impressive In-Context Learning (ICL) ability, where the model learns to do an unseen task via a prompt consisting of input-output examples as the demonstration, without any parameter updates. The performance of ICL is highly dominated by the quality of the selected in-context examples. However, previous selection methods are mostly based on simple heuristics, leading to sub-optimal performance. In this work, we formulate in-context example selection as a subset selection problem. We propose CEIL(Compositional Exemplars for In-context Learning), which is instantiated by Determinantal Point Processes (DPPs) to model the interaction between the given input and in-context examples, and optimized through a carefully-designed contrastive learning objective to obtain preference from LMs. We validate CEIL on 12 classification and generation datasets from 7 distinct NLP tasks, including sentiment analysis, paraphrase detection, natural language inference, commonsense reasoning, open-domain question answering, code generation, and semantic parsing. Extensive experiments demonstrate not only the state-of-the-art performance but also the transferability and compositionality of CEIL, shedding new light on effective and efficient in-context learning. Our code is released at https://github.com/HKUNLP/icl-ceil.
翻译:大型预先培训的语言模型(LMS)已经表现出令人印象深刻的 Incontext Learning (ICL) 能力, 模型通过由输入- 输出示例组成的快速演示, 学习完成一项看不见的任务, 无需更新任何参数。 ILLL的性能高度受选定的内文示例质量的制约。 但是, 以前的选择方法大多基于简单的超自然学, 导致亚优性性能。 在这项工作中, 我们将同文实例选择作为一个子选择问题。 我们建议 CEIL( 用于同文学习的组合), 由“ 磁源点” 进程( DPPs) 即刻起, 来模拟所提供的投入和内文实例之间的互动, 并通过精心设计的对比性学习目标优化。 我们验证CEILL的12个分类和生成来自7项不同的 NLP任务的数据集, 包括情绪分析、 参数检测、 自然语言推导、 常识性推理、 开放式问题解说、 代码生成、 和语义性平面分析性分析, 也展示了我们新的C- LIL 的系统/ 演示 的快速化、 演示、 演示性、 演示、 演示、 性、 演示、 性、 演示- 演示- 演示- 演示- 以及系统- 演示- 演示- 的系统- 的系统- 以及系统- 的系统- 的系统- 的演示- 的演示- 的系统- 的系统- 和系统- 的系统- 的演示- 的演示- 、 以及系统/流化- 性能性能性能性能性能性能性能性能性能 。