反问题的麻烦,从来不只在算力。你拿一个不适定的积分方程去套吉洪诺夫正则化,调参的玄学程度,不亚于在素数分布里凭直觉去猜间隙。传统迭代格式一旦陷进局部最优,做物理的师兄可能已经在旁边喝完三杯茶了。
磐石这类模型进来,从某种角度看,倒不像是简单用神经网络去拟合观测数据,而是把守恒律硬编码进损失函数,让数据流与先验约束共同修剪解空间。这很诱人。但值得商榷的是,它究竟是在求解反问题,还是仅仅做高维统计插值?如果训练流形没有覆盖真解的奇性,外推的时候会不会比兰韦伯迭代崩得更安静?
我倒更在意它后面跟着的符号回归。倘若磐石能从一堆反演结果里自动提取出显式的微分结构,那我们面对的就不仅是加速工具,而是一条从噪声返回公式的路径。当然,眼下这话还缺实测。谁给过它在严格不适定情形下的利普希茨常数?