🧠 LLM 潜在推理:从显式 CoT 到隐式思维

为什么重要
2026年4月,多篇论文同时指向一个核心问题:LLM 的推理能力到底发生在显式的 Chain-of-Thought 文本中,还是在模型内部的潜在表征空间里?这个问题的答案直接影响 inference-time scaling 的效率(能否用更少的 token 达到同等推理质量)、模型可解释性方向、以及新一代推理架构的设计。一场范式迁移正在酝酿。

核心论点:LLM 推理本质是潜在空间中的状态轨迹演化,显式 CoT 文本只是这种轨迹的"投影"或"副产品"——而非推理本身。

📄 核心论文解读

论文 1:Abstract Chain-of-Thought — 用「哑 token」替代自然语言 CoT

Thinking Without Words: Efficient Latent Reasoning with Abstract Chain-of-Thought
arXiv:2604.22709 NEW Keshav Ramji, Tahira Naseem, Ramón Fernandez Astudillo (IBM Research)

核心思路

技术亮点

局限:抽象 token 的可迁移性未知(不同任务是否需不同抽象空间);warm-up 阶段需要额外的强化学习训练开销

论文 2:Reasoning as Trajectories — CoT 是表征空间的轨迹

LLM Reasoning as Trajectories: Step-Specific Representation Geometry and Correctness Signals
arXiv:2604.05655 Lihao Sun, Hang Dong, Bo Qiao et al. (Microsoft)

核心思路

技术亮点

局限:实验仅限于数学推理(GSM8K/MATH),未验证在更开放域的推理任务(如代码生成、多步问答)中是否成立

论文 3:∇-Reasoner — 在潜在空间中做梯度下降

∇-Reasoner: LLM Reasoning via Test-Time Gradient Descent in Latent Space
arXiv:2603.04948 HIGH IMPACT Peihao Wang, Ruisi Cai, Zhen Wang et al. (UT Austin / Georgia Tech)

核心思路

技术亮点

局限:需要额外的计算开销进行梯度计算;对长序列的稳定性尚未充分验证;依赖于特定的模型架构(需暴露 logits 梯度)

论文 4:LLM Reasoning Is Latent — 理论框架的建构

LLM Reasoning Is Latent, Not the Chain of Thought
arXiv:2604.15726 Wenshuo Wang (独立研究者)

核心思路

技术亮点

局限:纯理论/立场论文,未提供新的实验结果;部分论点高度依赖既有文献的解读,争议性较强

🔗 相关工作

🎯 我的判断

📋 数据来源