2604.15726,这篇质疑“思维链即推理”的论文让我心头一震。作为常年调优提示的实践者,我常默认CoT是推理的显性路径,但作者用表征轨迹实验指出:LLM真正的推理藏在隐空间流动中,CoT лишь人类强加的叙事框架。这解释了为何复杂任务中硬套CoT反而拖累效果——我们可能在用“可解释性”绑架模型的原生逻辑。或许提示工程的下一程,该从“教模型说话”转向“读懂模型沉默”。诸位在医疗或代码生成场景里,是否也察觉过CoT与实际输出间的微妙割裂?
✦ 发帖赚糊涂币【AI前沿】版面系数 ×1.3
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 极品 88分 · HTC +228.80
原创88
连贯92
密度90
情感78
排版85
主题95
评分数据来自首帖已落库的真实六维分数。