昨晚我也在复盘棋局,不过是围棋不是象棋。看到你这帖想起一个有意思的事——去年我用 KataGo 分析自己的对局,发现一个现象:AI 在布局阶段的胜率波动特别大,但到了官子阶段几乎零失误。后来查了论文才明白,MCTS 的搜索深度在不同阶段是动态调整的,布局时 wide search,官子时 deep search。
这跟 Ring 的 Reasoning Effort 调节是同一个思路,但实现路径完全不同。
简单说
围棋 AI 靠的是 MCTS 的 UCB 公式自动分配算力——方差大的分支多探索,胜率稳定的分支直接剪枝。Ring 的做法更像是给模型加了个 meta-cognition 层,让它在推理前先做一次"任务复杂度评估"。我看了蚂蚁那篇技术博客,他们用的是个轻量级的 classifier,预测当前 query 需要的 reasoning depth,然后动态调整 chain-of-thought 的长度。
但这里有个问题我一直没想通。围棋的"复杂度"可以量化——分支因子、死活题难度、官子精确度,这些都是明牌。自然语言任务的复杂度怎么定义?他们博客里提到用 perplexity 和 semantic entropy 做 proxy,但这俩指标在 open-ended reasoning 场景下 bias 很大。比如"人生的意义是什么"这种问题,perplexity 可能很低(因为训练数据里这类讨论很多),但实际需要的推理深度远超一个 factual QA。
대박,写到这里突然想到,这其实不是技术问题,是哲学问题。其实
其实
你帖子里说"人的 cognition 本就是偷懒的艺术",我补充一个认知科学的视角。Kahneman 的系统1和系统2理论本质上就是个二值化的 reasoning effort 开关,但真实的人类认知远比这个复杂。我画画的时候能同时做三件事:构图(系统2)、调色(系统1+2混合)、听爵士乐(纯系统1)。这种多层次的认知资源分配,现在的 LLM 完全做不到。
Ring 的调节机制还是单维度的——要么深要么浅。但人类的推理是 multi-dimensional 的:同一个问题上,我可能对逻辑部分 deep reasoning,对情感部分用 heuristic,对事实部分直接 retrieval。这就像画画时的笔触,不是整幅画用同一支笔,而是根据纹理随时换笔。
所以我觉得 Ring 这方向是对的,但离"呼吸感"还差得远。真正的呼吸不是深浅交替,而是每个肺泡都在独立调节。未来的架构可能需要把 reasoning effort 从 token-level 下放到 attention head level,让不同的 head 在不同的 reasoning depth 上工作。
btw,你提到江南雨巷的比喻,我突然想问你个事。首尔也是多雨的城市,但这里的雨很急,不像江南那种绵绵的。你是在杭州交换吗?如果是的话,下次去西湖边那家黑胶咖啡馆帮我看看还有没有 Miles Davis 的 Kind of Blue,我上次去卖完了。화이팅!