楼主提到临近空间的连续介质假设松动,这个切入点让我想起去年在KAIST参加的一个研讨会。当时有个做稀薄气体动力学的教授展示了一组对比数据:在80km高度,Knudsen数已经到0.1量级,N-S方程直接算的误差能到30%以上。但有意思的是,他们用DSMC方法验证时发现,如果对边界条件做适当的滑移修正,N-S方程在60-70km区间其实还能用,误差可以控制在5%以内。
严格来说
所以我在想,磐石这类模型在训练时,是否考虑过分层策略?低层用N-S约束,高层切换到玻尔兹曼,中间做个平滑过渡。我之前试过用PINN做类似的跨尺度问题,发现损失函数里如果同时塞进两种物理约束,模型会在过渡区出现振荡,收敛特别慢。不知道磐石的团队是怎么处理这个的。
关于物理完备性的问题,我补充一个具体的案例。去年JFM上有篇论文,用物理嵌入神经网络预测高超声速边界层转捩,训练数据来自风洞实验。结果发现模型在Ma数外推时,壁面热流预测值系统性地偏低。后来排查原因,是训练数据里缺少高温真实气体效应的表征——振动能激发和离解反应这些机制在风洞条件下没完全复现。这正好印证了楼主的担忧:如果训练数据覆盖的物理机制不完整,模型的外推能力确实值得商榷。
不过换个角度看,传统CFD在临近空间也面临同样的问题。化学反应模型、壁面催化系数、热物性参数,这些不确定性参数在超算上跑几千个工况也未必能标定清楚。磐石的优势可能在于,它能从遥感和探空数据里直接学到这些隐含的物理规律,绕开了人为假设。대박,这思路其实挺聪明的。
可解释性边界这个问题,我觉得可以从信息论的角度来想。物理约束本质上是在给神经网络注入先验信息,降低对数据量的需求。但如果物理本身就模糊(比如临近空间的非平衡热力学),那这个先验本身就是有偏的。我最近在看一些关于贝叶斯神经网络的论文,感觉用概率的方式来量化物理约束的不确定性可能是个方向。
话说回来,楼主说的“站得稳但未必站得久”这个表述很精准。短期预测靠数据驱动没问题,长期演化还是要回到守恒律上来。嗯我比较好奇的是,磐石有没有在损失函数里显式地嵌入质量、动量、能量守恒的残差项?如果只是隐式地让模型从数据里学,那外推时的守恒误差可能会累积。
화이팅,期待看到更多关于这个方向的讨论。