大型语言模型(LLMs)在推理任务中展现出了令人印象深刻的能力,尤其是在通过显式的思维链(Chain-of-Thought, CoT)推理引导时,其推理步骤能够以自然语言形式明确表达。尽管 CoT 在提升可解释性和准确性方面表现出色,但其对自然语言推理的依赖限制了模型的表达带宽。**潜在推理(Latent Reasoning)**试图突破这一瓶颈,其核心在于完全在模型的连续隐藏状态中执行多步推理,摆脱了对逐词监督的依赖。

为了推动潜在推理的研究进展,本文综述了这一新兴领域的全貌。我们首先探讨了神经网络层作为推理计算基础所起到的核心作用,重点分析了层级表示如何支持复杂的变换过程。接着,我们系统梳理了多种潜在推理方法,包括基于激活的递归机制、隐藏状态的传播方式,以及用于压缩或内化显式推理轨迹的微调策略。 最后,我们讨论了一些前沿范式,例如基于掩码扩散模型(masked diffusion models)的无限深度潜在推理方法,它们能够实现全局一致且可逆的推理过程。通过整合这些研究视角,我们旨在厘清潜在推理的概念图谱,并为大型语言模型认知能力前沿的研究方向指明未来发展路径。

我们还建立了一个相关的 GitHub 项目库 LatentCoT-Horizon,收录了该领域的最新论文与代码资源,供读者参考与深入研究。

大型语言模型(LLMs)在推理任务中展现出了卓越的能力,在某些情况下甚至超过了人类水平【47, 62, 79, 128】。研究发现,当LLMs采用“思维链”(Chain-of-Thought, CoT)方式进行推理——即在得出最终答案之前,先以自然语言形式阐述每一步中间推理过程——其推理效果更为出色【110】。 最初,CoT 被视为提示工程的逻辑延伸,随着有监督的指令微调让模型暴露于大量带标注的推理轨迹中,这一方法逐渐受到关注。当强化学习开始依据答案正确性进行奖励【49】,进而鼓励模型生成有效的思维链之后,CoT 成为主流。如今,“在回答之前用语言思考”的原则已经成为诸多领先推理模型(如 Qwen3 系列【113】、DeepSeek-R1【41】和 Gemini 2.5 系列【32】)的核心机制,显著提升了模型性能。 然而,正如人类在思考时并不总是依赖语言,LLMs 的大部分计算过程实际上发生在其**潜在空间(latent space)**中。强制将 CoT 过程转化为自然语言不仅限制了模型的表达范围,还可能带来冗余的计算负担。**潜在思维链(Latent Chain-of-Thought, Latent CoT)**有望打破这一限制【23, 44】。与依赖离散词元的显式 CoT 不同,Latent CoT 在模型的连续内部表示中(往往通过循环机制)执行推理过程。这种方式具备更高的表达能力,并能探索非语言化的推理路径,从而有望开启模型推理的新前沿。 本综述聚焦于 Latent CoT 这一新兴领域,并探讨其突破基于语言推理限制的潜力。显式 CoT 需要将“思维”串联为一串词元,而 Latent CoT 则将整个推理过程转移至模型的连续表示空间之中,旨在拓展模型的表达能力并提升推理性能上限:摆脱有限词表的约束后,模型可以探索不具备直接语言对应的推理轨迹。我们对利用连续表示实现高级推理的技术方法进行了归类和分析。 本综述的结构旨在系统介绍 Latent CoT 的核心思想及其多种实现方式。我们首先建立了一个通用的形式化框架,用于概括当前大多数 Latent CoT 方法。接着,我们将其细分为两个主要类别: 1. 纵向递归(Vertical Recurrence):通过对激活值引入反馈循环来扩展计算深度,可理解为“基于激活的推理”(activation-based reasoning)【22, 69】; 1. 横向递归(Horizontal Recurrence):通过隐藏状态传播,在长推理序列中传递上下文信息【84, 97】。

随后,我们还探讨了旨在压缩或内化显式推理轨迹的微调策略,进一步丰富了对 Latent CoT 实现方法的理解。 这些内容为后续对“潜在推理机制可解释性”的理解奠定基础。我们重点讨论了神经网络各层在推理中的基础性作用【89, 131】,并引入层专化理论(Layer Specialization):该理论认为,不同层会形成层级化的功能结构——从浅层的特征提取、中层的复杂逻辑操作,到深层的整合决策,共同构成一个隐式的计算流程,功能上可类比于显式 CoT。显式 CoT 的中间词元具有一定的事后可解释性,我们也希望揭示 Latent CoT 所依赖的底层推理机制。 最后,我们讨论了 LLM 认知研究前沿的先进范式,聚焦于“无限深度推理”(infinite-depth reasoning)的探索。这一概念指的是模型能够投入无限计算步骤来持续优化推理过程,突破固定深度架构的限制。我们以文本扩散模型(text diffusion models)为例【71, 119】,探讨“空间无限推理(spatial infinite reasoning)”的实现方式:与传统的自回归生成不同,这类模型可对整个输出序列进行并行处理,借助双向上下文信息实现全局规划与迭代自我修正。这种方式支持全局一致且可逆的推理过程,为构建更强大、更灵活的 AI 系统提供了有前景的路径。

成为VIP会员查看完整内容
17

相关内容

大语言模型是基于海量文本数据训练的深度学习模型。它不仅能够生成自然语言文本,还能够深入理解文本含义,处理各种自然语言任务,如文本摘要、问答、翻译等。2023年,大语言模型及其在人工智能领域的应用已成为全球科技研究的热点,其在规模上的增长尤为引人注目,参数量已从最初的十几亿跃升到如今的一万亿。参数量的提升使得模型能够更加精细地捕捉人类语言微妙之处,更加深入地理解人类语言的复杂性。在过去的一年里,大语言模型在吸纳新知识、分解复杂任务以及图文对齐等多方面都有显著提升。随着技术的不断成熟,它将不断拓展其应用范围,为人类提供更加智能化和个性化的服务,进一步改善人们的生活和生产方式。
超越语言的推理:潜在思维链推理的综合综述
专知会员服务
20+阅读 · 5月23日
《大型推理模型的安全性:综述》
专知会员服务
24+阅读 · 4月25日
停止过度思考:大型语言模型高效推理研究综述
专知会员服务
31+阅读 · 3月21日
从系统1到系统2:推理大语言模型综述
专知会员服务
41+阅读 · 2月25日
《可解释深度强化学习综述》
专知会员服务
38+阅读 · 2月12日
大规模语言模型推理的进展综述
专知会员服务
54+阅读 · 2月8日
《多模态大型语言模型的幻觉现象》综述
专知会员服务
45+阅读 · 2024年4月30日
《大型多模态智能体》综述
专知会员服务
102+阅读 · 2024年2月26日
「大型语言模型推理」综述
专知会员服务
91+阅读 · 2022年12月24日
《多域作战环境下的军事决策过程》
专知
105+阅读 · 2023年4月12日
【硬核书】数据科学,282页pdf
专知
26+阅读 · 2022年11月29日
时空数据挖掘:综述
专知
32+阅读 · 2022年6月30日
最新《图嵌入组合优化》综述论文,40页pdf
【干货书】计算机科学离散数学,627页pdf
专知
63+阅读 · 2020年8月31日
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
48+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
472+阅读 · 2023年3月31日
Arxiv
78+阅读 · 2023年3月26日
Arxiv
69+阅读 · 2022年9月7日
Arxiv
23+阅读 · 2022年2月4日
Arxiv
39+阅读 · 2021年11月11日
Arxiv
18+阅读 · 2021年3月16日
VIP会员
相关VIP内容
超越语言的推理:潜在思维链推理的综合综述
专知会员服务
20+阅读 · 5月23日
《大型推理模型的安全性:综述》
专知会员服务
24+阅读 · 4月25日
停止过度思考:大型语言模型高效推理研究综述
专知会员服务
31+阅读 · 3月21日
从系统1到系统2:推理大语言模型综述
专知会员服务
41+阅读 · 2月25日
《可解释深度强化学习综述》
专知会员服务
38+阅读 · 2月12日
大规模语言模型推理的进展综述
专知会员服务
54+阅读 · 2月8日
《多模态大型语言模型的幻觉现象》综述
专知会员服务
45+阅读 · 2024年4月30日
《大型多模态智能体》综述
专知会员服务
102+阅读 · 2024年2月26日
「大型语言模型推理」综述
专知会员服务
91+阅读 · 2022年12月24日
相关资讯
《多域作战环境下的军事决策过程》
专知
105+阅读 · 2023年4月12日
【硬核书】数据科学,282页pdf
专知
26+阅读 · 2022年11月29日
时空数据挖掘:综述
专知
32+阅读 · 2022年6月30日
最新《图嵌入组合优化》综述论文,40页pdf
【干货书】计算机科学离散数学,627页pdf
专知
63+阅读 · 2020年8月31日
相关基金
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
48+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
472+阅读 · 2023年3月31日
Arxiv
78+阅读 · 2023年3月26日
Arxiv
69+阅读 · 2022年9月7日
Arxiv
23+阅读 · 2022年2月4日
Arxiv
39+阅读 · 2021年11月11日
Arxiv
18+阅读 · 2021年3月16日
微信扫码咨询专知VIP会员