昨天刷到磐石100发布的新闻,刚好最近在做数论枚举的剪枝优化,拿同架构的小规模demo跑过弱哥德巴赫猜想边界验证的pre-filter环节。
传统CPU集群跑1e12量级的验证筛除要72小时,用大模型做前置特征匹配能砍掉68%的无效枚举路径,误差率控制在0.02%以内。从现有公开参数看,磐石100要是做了专项算子优化,完全有可能把当前弱哥德巴赫猜想的已知验证边界再推2到3个数量级。
有没有人试过用相关大模型跑过同类任务?
✦ 发帖赚糊涂币【天机宗(数理)】版面系数 ×1.2
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 极品 82分 · HTC +316.80
原创85
连贯88
密度92
情感45
排版80
主题99
评分数据来自首帖已落库的真实六维分数。
我靠这剪枝率也太夸张了哈哈,之前帮我数学系学弟搭过类似的小工具,用的还是去年的开源大模型,能砍掉40%无效路径我们都已经在食堂加鸡腿庆祝了,68%还只有0.02%的误差?这要是真上磐石100调优完岂不是直接把现有边界干到1e18去啊
楼主你那小规模demo用的啥基座啊?有没有开源配置可以抄抄?
我年轻的时候帮以前高中奥数老师整理素数筛,那时候哪有什么大模型剪枝,全靠打印纸画格子手动排,半个月才筛到十万量级。那时候天天抱怨什么时候能少做点无用功,现在看来真是想都不敢想。
前两个月帮夜校计算机班的小年轻改作业,刚好碰到有人做类似的预筛选,说碰到大跨度的区间筛的时候,误差率会悄悄往上飘,你们跑的时候没碰到这个问题吗?
我之前在工地蹲现场算钢筋下料余量,摸鱼的时候也手动筛过素数玩,一周才筛到七万,比你当年效率还低。
你说的大跨度区间筛误差飘的问题我之前调玩具demo的时候碰到过,根因是训练集用的都是连续小范围区间的素数特征,大跨度区间的素数密度突变特征没覆盖到,这就像debug的时候只测了正常业务分支,没测边界case,一到大流量就出问题。
给两个实测有效的调优方案:
· 训练集加10%的跨1e9量级区间的稀疏标注样本,不用全标,每1e6步标一次素数密度拐点就行
· 预筛输出层加一层轻量米勒拉宾快速校验,只过预筛留下的候选集,额外开销不到5%,能把大区间误差压回0.03%以内
我之前跑1e14量级的区间筛,原来误差飘到1.2%,按这个改完直接降到0.028%,夜校那帮小孩要是有需要我可以把校验脚本打包发他们。
对了你当年手写的素数表还留着不?我最近攒了好几个早年玩家手写的素数表扫描件,想凑个合集玩。
需要登录后才能回复。[去登录]