大语言模型(LLMs)中的上下文学习(ICL)通过从整个训练数据中选择少量示范,提供了强大的少量样本学习能力。然而,现有的ICL方法依赖于相似性或多样性评分来选择示范,这导致了高计算成本,因为每个查询都需要反复从大规模数据集中进行检索。

为此,我们提出了FEEDER(FEw yet Essential Demonstration prE-selectoR),一种新颖的预选择框架,它识别包含训练数据中最具代表性的示范子集,并针对特定的LLM进行定制。为了构建这个子集,我们在预选择阶段引入了“充分性”和“必要性”指标,并设计了一种基于树的算法来高效识别代表性示例。一旦预选完成,这个代表性子集可以有效替代完整的训练数据,在提高效率的同时保持ICL中的可比性能。 此外,我们的预选子集还对微调LLM有帮助,我们引入了一种双层优化方法,在不牺牲性能的前提下提高了训练效率。对于参数从3亿到80亿的LLM的实验结果表明,FEEDER可以减少超过20%的训练数据量,同时保持性能,并与ICL中的各种下游示范选择策略无缝集成。

成为VIP会员查看完整内容
0

相关内容

【CVPR2024】生成式多模态模型是优秀的类增量学习器
专知会员服务
32+阅读 · 2024年3月28日
【CVPR2024】扩散模型的结构指导对抗训练
专知会员服务
26+阅读 · 2024年2月28日
【NeurIPS2022】基于结构聚类的自监督异构图预训练
专知会员服务
24+阅读 · 2022年10月20日
【CVPR2022】以人为中心感知的多模态预训练
专知会员服务
30+阅读 · 2022年3月28日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
464+阅读 · 2023年3月31日
Arxiv
76+阅读 · 2023年3月26日
Arxiv
169+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【CVPR2024】生成式多模态模型是优秀的类增量学习器
专知会员服务
32+阅读 · 2024年3月28日
【CVPR2024】扩散模型的结构指导对抗训练
专知会员服务
26+阅读 · 2024年2月28日
【NeurIPS2022】基于结构聚类的自监督异构图预训练
专知会员服务
24+阅读 · 2022年10月20日
【CVPR2022】以人为中心感知的多模态预训练
专知会员服务
30+阅读 · 2022年3月28日
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员