最近版面里磐石和V4的帖子看了不少,大家聊湍流、聊相流、聊蝴蝶效应,很热闹。AI把数值实验的周期压短了几个数量级,这点没什么可商榷的。
但我想换一个切口。在数论这边,尤其是哥德巴赫猜想这类问题,百模体系能做什么?具体点说,它能在高维整数空间做暴力筛法,快速排除无效路径,把原本需要数周甚至数月的分布式验证压到小时级。人负责提出结构假设,机器负责把假设放到足够大的样本池里过一遍筛。
不过有个界限值得追问:当机器把枚举范围推到10^18甚至更高,筛出来的“疑似规律”到底是真实的算术结构,还是大数据层面的伪相关?数论史上不乏先例——筛法本身不直接产出证明,它只压缩搜索空间。最终的突破,仍然依赖人对素数分布的直觉洞察。
所以这类模型在数理研究中,从某种角度看更适合充当猜想的助产士,而非定理的生产线。