近年来,大语言模型(LLMs)的快速发展推动了对多种应用的关注,这些应用依赖于强大的长程建模能力,以便处理大规模输入上下文并持续生成较长的输出。随着序列长度的增加,LLM中的键值对(Key-Value, KV)数量也随之增长,形成了严重的效率瓶颈。

本文提出了一种全新的 KV 缓存优化范式——LaCache,这是一种无需训练、用于提升 LLM 生成推理效率与精度的方法。LaCache 使 LLM 能够同时应对长程建模中的两大关键挑战:增强的长程建模能力以及在不触发内存溢出(OOM)的前提下实现持续生成。 具体而言,LaCache 包含两项核心创新:

梯状 KV 缓存结构(ladder-shaped KV cache pattern):该结构不仅在每一层内部按照顺序(从左至右)存储 KV 对,还在不同层之间(从浅层到深层)进行跨层存储,在固定的存储预算下扩大了可建模的依赖范围,从而显著提升了长程建模能力; 1. 迭代压缩机制(iterative compaction mechanism):该机制能够逐步压缩旧的缓存内容,为新生成的 token 腾出空间。这种基于 token 距离的动态压缩方式,使得在缓存空间受限的情况下实现更高效的持续生成成为可能。

我们在多个任务、基准测试和不同 LLM 模型上进行了实证研究,结果一致验证了 LaCache 在增强大语言模型长程能力方面的有效性。 我们的代码开源于:https://github.com/GATECHEIC/LaCache

成为VIP会员查看完整内容
0

相关内容

MME-Survey:多模态大型语言模型评估的综合性调查
专知会员服务
41+阅读 · 2024年12月1日
【KDD2024】面向课程图稀疏化的轻量级图神经网络搜索
专知会员服务
18+阅读 · 2024年6月25日
RAG与RAU:自然语言处理中的检索增强语言模型综述
专知会员服务
84+阅读 · 2024年5月3日
KnowledGPT:基于知识库的检索和存储访问增强大型语言模型
【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
22+阅读 · 2023年5月10日
【AAAI2022】基于变分信息瓶颈的图结构学习
专知会员服务
20+阅读 · 2021年12月18日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
[CVPR 2021] 序列到序列对比学习的文本识别
专知
10+阅读 · 2021年4月14日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
如何使用自然语言工具包(NLTK)在Python3中执行情感分析
Python程序员
21+阅读 · 2019年10月28日
CVPR 2019:精确目标检测的不确定边界框回归
AI科技评论
13+阅读 · 2019年9月16日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
44+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
472+阅读 · 2023年3月31日
Arxiv
78+阅读 · 2023年3月26日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关VIP内容
相关资讯
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
[CVPR 2021] 序列到序列对比学习的文本识别
专知
10+阅读 · 2021年4月14日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
如何使用自然语言工具包(NLTK)在Python3中执行情感分析
Python程序员
21+阅读 · 2019年10月28日
CVPR 2019:精确目标检测的不确定边界框回归
AI科技评论
13+阅读 · 2019年9月16日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
44+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员