大语言模型(Large Language Models, LLMs)已经在广泛的任务中展现出强大的泛化能力。推理是 LLMs 解决多步问题和复杂决策的核心。为了支持高效推理,近期研究的关注点正从显式的“链式思维”(chain-of-thought, CoT)提示转向隐式推理,即推理过程在潜在结构中静默展开,而无需输出中间的文本化步骤。隐式推理的优势在于:更低的生成成本、更快的推理速度,以及与模型内部计算更好地对齐。尽管已有综述在推理背景下讨论过潜在表示,但对于推理在 LLM 内部如何展开的专门化、机制层面的梳理仍然缺失。本文旨在填补这一空白,通过引入一个以执行范式为中心的分类体系,将关注点从表示形式转向计算策略。我们将现有方法归纳为三类执行范式,依据其内部计算展开的方式与位置进行划分:潜在优化(latent optimization)、信号引导控制(signal-guided control)、以及层递归执行(layer-recurrent execution)。此外,我们还回顾了支持 LLM 隐式推理存在性的多种证据,包括结构层面、行为层面和表示层面的实证结果。最后,我们系统总结了已有工作在评估隐式推理有效性与可靠性时所使用的指标与基准。我们维护了一个持续更新的项目主页:https://github.com/digailab/awesome-llm-implicit-reasoning。

1 引言

近年来,大语言模型(Large Language Models, LLMs)(Touvron et al., 2023a; Li et al., 2023b; Javaheripi et al., 2023; Abdin et al., 2024; Grattafiori et al., 2024; Hurst et al., 2024; Contributors et al., 2024; Yang et al., 2024a;b; 2025a; Guo et al., 2025; OpenAI, 2025; DeepSeek-AI, 2025) 在广泛的任务中取得了显著进展 (Liu et al., 2025a),涵盖对话生成 (Yi et al., 2024)、推荐系统 (Wang et al., 2024b)、医疗健康 (Qiu et al., 2024)、金融 (Li et al., 2023a)、推理时计算 (test-time compute) (Li, 2025)、表格数据 (Fang et al., 2025b) 以及科学推理 (Yan et al., 2025) 等多个领域,这得益于其庞大的参数规模和大规模训练数据。然而,研究表明,仅仅依赖参数规模的线性增长并不足以解释所有性能提升。在推理过程中,推理时扩展(Test-Time Scaling, TTS)(Zhang et al., 2025b) 揭示了模型的“动态计算”能力,即在推理时投入额外的计算资源以实现更深入的理解与推理。典型的例子包括 o1 (Contributors et al., 2024) 和 DeepSeek R1 (Guo et al., 2025),这类推理模型展现出强大的性能。

近年来的大多数推理模型依赖于显式的链式思维(Chain-of-Thought, CoT)(Wei et al., 2022)。在这一范式下,模型首先以自然语言“说出”一系列连贯的中间推理步骤 (Sun et al., 2023),然后给出最终答案,从而显著提升复杂问题的准确性。尽管显式推理可以提升可解释性和深度,但它常常导致序列过长,其中包含冗余、无关或不必要的步骤 (Hong et al., 2025),在实际应用中造成计算资源浪费,并增加延迟与成本 (Yue et al., 2025a),如图 1 所示。为此,研究界开始探索如何在保持深度推理能力的同时,提高推理效率,减少“过度思考”的负担 (Sui et al., 2025)。

为应对上述问题,近期研究提出了隐式推理(implicit reasoning)的概念 (Ye et al., 2025a),即在不生成显式推理轨迹的情况下完成多步推理。与显式方法不同,隐式推理通过内部计算来完成,例如基于 token 级 (Tack et al., 2025; Sun et al., 2025)、轨迹级 (Cheng & Van Durme, 2024; Hao et al., 2024)、内部状态级的潜在表示精化 (Deng et al., 2023; Kong et al., 2025),或信号引导控制 (Herel & Mikolov, 2024; Goyal et al., 2024; Pfau et al., 2024; Wang et al., 2024c) 等方式。这种“静默”的推理形式降低了表层复杂性,更符合推理在模型内部展开的方式。尽管这一方向受到越来越多关注,但隐式推理仍然缺乏系统性的理解。

LLM 隐式推理打破了在推理过程中每一步都必须输出 token 的限制,而是在模型的连续表示空间中直接完成推理。这种方法无需将每一步转化为自然语言 token(见图 1),从而避免了多次自回归生成的计算和序列化瓶颈,并可在模型内部以并行方式更高效地展开推理。通过利用潜在嵌入与神经网络层等更高效的内部结构,隐式推理不仅能够更好地利用资源 (Hao et al., 2024; Zhang et al., 2025a),还可以探索更多样化的推理路径 (Xu et al., 2025a; Gozeten et al., 2025),不再受限于解码过程。

然而,尽管兴趣不断增长,现有关于隐式推理的研究仍然零散。已有工作涉及潜在状态建模、紧凑推理轨迹、基于循环的计算以及推理时控制等多个方向,但缺乏统一的概念框架。已有若干综述探讨了更广泛的 LLM 推理 (Ahn et al., 2024; Zhou et al., 2025; Chen et al., 2025a; Li et al., 2025b),但大多集中于显式范式 (Qu et al., 2025; Liu et al., 2025b; Feng et al., 2025; Wang et al., 2025b; Sui et al., 2025),例如 CoT 提示或符号推理,对隐式推理的覆盖不足。少数近期综述涉及潜在形式的推理 (Chen et al., 2025b; Zhu et al., 2025b),但其研究范围与本文差异较大。例如,Chen et al. (2025b) 从 token 级策略、内部机制、分析方法和应用四个角度进行梳理,强调如何将链式思维推理重新编码为潜在形式;而 Zhu et al. (2025b) 则从机制视角出发,关注架构递归、时间隐藏状态和逐层可解释性。 为整合零散的研究并澄清这一新兴范式,本文从功能视角出发,对 LLM 隐式推理进行系统性综述。我们按照内部计算展开的方式与位置对现有方法进行组织,提出了一个由三类执行范式组成的分类体系(§3):潜在优化(latent optimization, §3.1)、信号引导控制(signal-guided control, §3.2)以及层递归执行(layer-recurrent execution, §3.3)。除了方法分类之外,我们还分析了支持隐式推理存在性的证据,包括结构层面、行为层面和表示层面的实证分析 (§4)。此外,我们还系统梳理了现有文献中常用的评估指标和基准 (§5),这一方面在以往综述中基本被忽视。通过建立一个连贯的框架,本文旨在统一分散的研究成果,并推动未来在高效、可控、具备认知基础的推理方向上开展进一步探索,同时识别关键挑战并展望有前景的研究方向 (§6)。

本文的主要贡献可总结如下: * 执行视角分类体系:为系统刻画 LLM 隐式推理,我们引入一个功能视角,强调内部计算的展开方式与位置。基于这一视角,我们提出了一个以执行为中心的分类体系,包括三类范式:潜在优化、信号引导控制与层递归执行,并根据推理粒度与控制机制进一步细化子类。 * 隐式推理证据整合:我们并行探讨了隐式推理的实证证据,综合了结构分析、行为特征和基于表示的分析方法,为执行中心分类体系提供经验支撑。 * 系统化评估综述:我们系统回顾了隐式推理研究中常用的评估协议与基准,并指出推进该领域的紧迫挑战,同时展望未来方向,以构建更高效、鲁棒、可解释且与认知对齐的推理系统。

成为VIP会员查看完整内容
12

相关内容

大语言模型是基于海量文本数据训练的深度学习模型。它不仅能够生成自然语言文本,还能够深入理解文本含义,处理各种自然语言任务,如文本摘要、问答、翻译等。2023年,大语言模型及其在人工智能领域的应用已成为全球科技研究的热点,其在规模上的增长尤为引人注目,参数量已从最初的十几亿跃升到如今的一万亿。参数量的提升使得模型能够更加精细地捕捉人类语言微妙之处,更加深入地理解人类语言的复杂性。在过去的一年里,大语言模型在吸纳新知识、分解复杂任务以及图文对齐等多方面都有显著提升。随着技术的不断成熟,它将不断拓展其应用范围,为人类提供更加智能化和个性化的服务,进一步改善人们的生活和生产方式。
多模态思维链推理:全面综述
专知会员服务
55+阅读 · 3月23日
停止过度思考:大型语言模型高效推理研究综述
专知会员服务
32+阅读 · 3月21日
多模态基础模型的机制可解释性综述
专知会员服务
37+阅读 · 2月28日
大语言模型中的逻辑推理:综述
专知会员服务
46+阅读 · 2月15日
RAG与RAU:自然语言处理中的检索增强语言模型综述
专知会员服务
84+阅读 · 2024年5月3日
大型语言模型中的数字遗忘:遗忘方法的综述
专知会员服务
33+阅读 · 2024年4月8日
大型语言模型在表格推理中的应用综述
专知会员服务
45+阅读 · 2024年2月14日
如何使用自然语言工具包(NLTK)在Python3中执行情感分析
Python程序员
21+阅读 · 2019年10月28日
论文浅尝 | 一种用于多关系问答的可解释推理网络
开放知识图谱
18+阅读 · 2019年5月21日
基于Tacotron模型的语音合成实践
深度学习每日摘要
15+阅读 · 2018年12月25日
深度学习与计算机视觉任务应用综述
深度学习与NLP
50+阅读 · 2018年12月18日
论文浅尝 | 基于开放世界的知识图谱补全
开放知识图谱
11+阅读 · 2018年7月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
482+阅读 · 2023年3月31日
Arxiv
79+阅读 · 2023年3月26日
Arxiv
18+阅读 · 2021年3月16日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
Arxiv
10+阅读 · 2020年11月26日
Optimization for deep learning: theory and algorithms
Arxiv
106+阅读 · 2019年12月19日
Augmentation for small object detection
Arxiv
11+阅读 · 2019年2月19日
VIP会员
相关VIP内容
多模态思维链推理:全面综述
专知会员服务
55+阅读 · 3月23日
停止过度思考:大型语言模型高效推理研究综述
专知会员服务
32+阅读 · 3月21日
多模态基础模型的机制可解释性综述
专知会员服务
37+阅读 · 2月28日
大语言模型中的逻辑推理:综述
专知会员服务
46+阅读 · 2月15日
RAG与RAU:自然语言处理中的检索增强语言模型综述
专知会员服务
84+阅读 · 2024年5月3日
大型语言模型中的数字遗忘:遗忘方法的综述
专知会员服务
33+阅读 · 2024年4月8日
大型语言模型在表格推理中的应用综述
专知会员服务
45+阅读 · 2024年2月14日
相关资讯
如何使用自然语言工具包(NLTK)在Python3中执行情感分析
Python程序员
21+阅读 · 2019年10月28日
论文浅尝 | 一种用于多关系问答的可解释推理网络
开放知识图谱
18+阅读 · 2019年5月21日
基于Tacotron模型的语音合成实践
深度学习每日摘要
15+阅读 · 2018年12月25日
深度学习与计算机视觉任务应用综述
深度学习与NLP
50+阅读 · 2018年12月18日
论文浅尝 | 基于开放世界的知识图谱补全
开放知识图谱
11+阅读 · 2018年7月3日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
相关论文
A Survey of Large Language Models
Arxiv
482+阅读 · 2023年3月31日
Arxiv
79+阅读 · 2023年3月26日
Arxiv
18+阅读 · 2021年3月16日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
Arxiv
10+阅读 · 2020年11月26日
Optimization for deep learning: theory and algorithms
Arxiv
106+阅读 · 2019年12月19日
Augmentation for small object detection
Arxiv
11+阅读 · 2019年2月19日
微信扫码咨询专知VIP会员