大型语言模型(Large Language Models, LLMs)在诸多领域与应用中取得了显著进展,但仍面临高昂的微调成本、推理延迟、边缘部署受限以及可靠性等问题。相比之下,小型语言模型(Small Language Models, SLMs)具有结构紧凑、高效灵活等优势,为上述问题提供了互补的解决思路。近期研究开始探索大小语言模型协作框架(SLM–LLM collaboration frameworks),旨在融合SLMs的专长与高效性,以及LLMs的泛化与推理能力,从而在不同任务与部署场景下实现多样化目标。 受此趋势启发,本文围绕协作目标对SLM–LLM协作进行了系统性综述。我们提出了一个以四类目标为核心的分类体系:性能提升、成本效益、云边隐私可信性。在此框架下,本文回顾了具有代表性的研究方法,总结了主要设计范式,并探讨了面向高效、安全与可扩展的SLM–LLM协作的开放挑战与未来发展方向。

1 引言

大型语言模型(Large Language Models, LLMs)凭借其庞大的参数规模,已深刻变革了多个领域,包括科学智能(AI for Science)(Luo et al., 2022; Al-Lawati et al., 2025; Wang et al., 2024a)、程序生成与代码智能(Shi et al., 2024),以及以人为中心的人机交互(Zhang et al., 2024c)等。然而,这种大规模特性同时带来了若干挑战:(1)微调成本高昂,导致模型难以高效适应新任务(Thawakar et al., 2025; Liu et al., 2024b);(2)模型规模庞大,引发推理延迟,限制了实时应用(Leviathan et al., 2023; Kwon et al., 2023);(3)边缘设备算力受限,如手机、个人电脑和小型服务器等通常无法部署LLMs,而基于云端的推理又带来了隐私与成本问题(Carlini et al., 2021; Xu et al., 2024b);(4)LLMs存在固有的可靠性风险,包括幻觉生成与越狱攻击等脆弱性(Yao et al., 2024; Farquhar et al., 2024)。 这些问题凸显了对可定制、具成本效益、可边缘部署且可信赖的AI解决方案的迫切需求。 相较之下,小型语言模型(Small Language Models, SLMs)因其结构紧凑、计算成本低且适应性强,成为应对上述问题的有力补充方案。尽管SLMs在通用推理与知识覆盖方面不及LLMs,但通过融合SLMs与LLMs的互补优势,有望构建出高效、可扩展且可靠的智能系统。 研究者提出了多种SLM–LLM协作(collaboration)方法,利用SLMs在定制化、高效性和本地部署方面的优势,结合LLMs在泛化与推理上的强大能力(Xu et al., 2024a; Chen et al., 2024; Wang et al., 2025b)。尽管该方向已取得显著进展,但目前尚缺乏一项系统性综述以协作目标为主线展开的研究。现有工作主要聚焦于四类核心目标: 1. 性能提升(Performance):将特定领域的SLMs与通用LLMs结合,以提升在专业与通用任务上的整体性能; 1. 成本效益(Cost-effectiveness):通过SLMs进行轻量级处理,并在必要时调用LLMs,从而降低计算与API调用成本; 1. 云边隐私(Cloud–edge Privacy):利用设备端SLMs处理隐私数据,而云端LLMs提供更广泛的推理支持,以平衡效率与隐私; 1. 可信性(Trustworthiness):将SLMs作为安全策略编码器,引导LLMs生成更安全、可靠的输出。

本文首次围绕性能、成本效益、云边隐私与可信性四大目标,对SLM–LLM协作进行全面综述。我们提出了系统的协作目标分类体系(taxonomy),总结了具有代表性的研究方法(详见附录表1),并展望了未来的研究方向。 与现有综述的差异

已有综述在LLM时代探讨了SLM的发展。例如,Wang et al. (2024b, 2025a)对SLM的设计、应用及可靠性进行了广泛概述,但仅简要提及协作问题;Lu et al. (2024)、Van Nguyen et al. (2024)与Xu et al. (2024b)则分析了SLM的优势、架构与部署,但对协作机制的讨论较为有限。另一方面,现有的协作综述(如Chen and Varoquaux, 2024; Niu et al., 2025; Li et al., 2025b)主要聚焦于单向或云–边协作场景,而未涵盖更广泛的协作目标。 为填补这一空白,本文从协作目标出发,对SLM–LLM协作进行系统性回顾,旨在提供关键洞见,以指导未来研究与实践。

成为VIP会员查看完整内容
1

相关内容

唯快不破:大型语言模型高效架构综述
专知会员服务
23+阅读 · 8月17日
赋能大型语言模型多领域资源挑战
专知会员服务
10+阅读 · 6月10日
大语言模型与小语言模型协同机制综述
专知会员服务
34+阅读 · 5月15日
基于大型语言模型的人机系统综述
专知会员服务
25+阅读 · 5月12日
多模态基础模型的机制可解释性综述
专知会员服务
41+阅读 · 2月28日
个性化大型语言模型综述:进展与未来方向
专知会员服务
40+阅读 · 2月18日
迈向大语言模型偏好学习的统一视角综述
专知会员服务
24+阅读 · 2024年9月7日
大型语言模型的高效提示方法综述
专知会员服务
74+阅读 · 2024年4月2日
基于大型语言模型的多智能体:进展与挑战综述
专知会员服务
133+阅读 · 2024年2月6日
面向多智能体博弈对抗的对手建模框架
专知
17+阅读 · 2022年9月28日
数据受限条件下的多模态处理技术综述
专知
21+阅读 · 2022年7月16日
综述| 当图神经网络遇上强化学习
图与推荐
34+阅读 · 2022年7月1日
如何使用自然语言工具包(NLTK)在Python3中执行情感分析
Python程序员
21+阅读 · 2019年10月28日
基于Tacotron模型的语音合成实践
深度学习每日摘要
15+阅读 · 2018年12月25日
深度学习与计算机视觉任务应用综述
深度学习与NLP
50+阅读 · 2018年12月18日
无人机集群、蜂群与蜂群算法
无人机
94+阅读 · 2018年9月25日
国家自然科学基金
16+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
A Survey of Large Language Models
Arxiv
484+阅读 · 2023年3月31日
VIP会员
相关VIP内容
唯快不破:大型语言模型高效架构综述
专知会员服务
23+阅读 · 8月17日
赋能大型语言模型多领域资源挑战
专知会员服务
10+阅读 · 6月10日
大语言模型与小语言模型协同机制综述
专知会员服务
34+阅读 · 5月15日
基于大型语言模型的人机系统综述
专知会员服务
25+阅读 · 5月12日
多模态基础模型的机制可解释性综述
专知会员服务
41+阅读 · 2月28日
个性化大型语言模型综述:进展与未来方向
专知会员服务
40+阅读 · 2月18日
迈向大语言模型偏好学习的统一视角综述
专知会员服务
24+阅读 · 2024年9月7日
大型语言模型的高效提示方法综述
专知会员服务
74+阅读 · 2024年4月2日
基于大型语言模型的多智能体:进展与挑战综述
专知会员服务
133+阅读 · 2024年2月6日
相关资讯
面向多智能体博弈对抗的对手建模框架
专知
17+阅读 · 2022年9月28日
数据受限条件下的多模态处理技术综述
专知
21+阅读 · 2022年7月16日
综述| 当图神经网络遇上强化学习
图与推荐
34+阅读 · 2022年7月1日
如何使用自然语言工具包(NLTK)在Python3中执行情感分析
Python程序员
21+阅读 · 2019年10月28日
基于Tacotron模型的语音合成实践
深度学习每日摘要
15+阅读 · 2018年12月25日
深度学习与计算机视觉任务应用综述
深度学习与NLP
50+阅读 · 2018年12月18日
无人机集群、蜂群与蜂群算法
无人机
94+阅读 · 2018年9月25日
相关基金
国家自然科学基金
16+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员