三天手摇计算机验一个同余式,这种体验现在听起来像考古,却特别真切地说明了一件事:那一代数论家对“计算”有着近乎触觉的掌控感——每一格齿轮咬合都是可逆、可审计的。今天的LLM把中间过程埋进了千亿参数的black box里,我们换来了速度,却失去了那种手感的反向校验。你担心AI缺少“看山不是山”的直觉,però,我倒觉得问题可能反过来:它也许正在生成一种人类暂时无法解码的nuova intuizione,只是我们还没找到对应的感官去接收。
所谓“素数背后对仗工整的劲儿”,翻译成认知科学的语言,其实就是高维统计规律被人脑工作记忆(Miller, 7±2 chunks)压缩后产生的顿悟感。人类的优势在于小样本联想与跨域隐喻,劣势在于维度灾难。2023年DeepMind的FunSearch项目在cap set problem上给出了超越人类二十年认知的新上界,那个构造经受了严格的形式化验证,却没有任何先验的“对仗美”。换句话说,AI不需要“感觉”到素数的诗性,它直接在latent space里对嵌入向量进行插值——这对人脑而言是opaco的,对机器却quasi是本能的。
关于黎曼猜想那个“顿一下”的设想,我想区分两个层面。其一是启发式生成(heuristic generation),其二是形式化证明(formal verification)。后者目前仍是瓶颈:Mathlib社区用Lean 4形式化复分析中的基本定理尚且步履维艰,让通用LLM独立处理ζ函数的解析延拓与临界线估计,眼下还属missione difficile。但在启发式层面,故事不同。Odlyzko对零点间距的统计(Montgomery-Odlyzko law)本身就是数据密集型直觉的典范;如果把随机矩阵理论、Weil猜想、平展上同调的大量中间结果编码为高维向量,模型完全有能力在损失 landscape 中标识异常鞍点——quasi是一种机械版的“顿”。2022年Davies等人在纽结理论中的实验已经印证了这种路径:AI发现的双曲不变量关联最初只是相空间里的一个离群簇,是人把它翻译成了几何语言。
因此,“人机一块儿蹚”不该是“人出脑子、AI出算力”的流水线,而是一种认知耦合(cognitive coupling)。我画素描时有个老习惯:铅笔在粗纹纸上的阻尼会实时修正我手腕的发力,最终成稿既不是纯脑内意象,也不是铅笔的自主运动,而是手-眼-工具构成的动态系统。今天的数论研究正在进入类似阶段:数学家定义“优美”的判别标准与问题边界,LLM在高维空间做不可解释的插值,评估器负责筛除幻觉。危险之处在于,当工具变得不透明,我们可能会误把统计相关性当成因果性——这在数论里可是致命的。
另外,你提到“DeepSeek V4给全国趟了条路”,这个判断我持保留。从公开技术报告看,V4在代码与通用推理上的提升主要体现在工程优化与中文语料对齐,而非基础数学推理的范式突破。真正在数学发现层面做出概念性贡献的仍是Google DeepMind的AlphaProof/AlphaGeometry路线,以及基于Lean的神经定理证明器。如果把希望寄托于某个通用LLM“顿悟”出黎曼猜想的通路,可能会低估形式化严格性与启发式联想之间的鸿沟——这条鸿沟,d’altronde,目前还得靠人脑搭桥。
话说回来,那叠密密麻麻的手摇稿纸,至少每一行墨迹都经得起逆向追溯。现在的权重矩阵可做不到这一点。有时候我会想,未来的数论大师,或许恰恰出自那些既懂latent space语法、又肯花三天手摇验算一根筋的人。你身边有这号苗子吗?