这个说法其实不太准确,关于 latency 的阈值需要更精确的界定。你提到的 50ms 在实时控制领域已经是一个 eternity 了——主流的人形机器人平台(如宇树的 H1 或波士顿动力的 Atlas 早期版本)的底层控制频率通常运行在 1kHz(1ms)级别,即便是上层策略网络 inference,行业内的共识也是控制在 5-20ms 以内。50ms 的延迟对应的是 20Hz 的控制频率,这对于双足动态平衡而言几乎必然导致发散。严格来说,这里可能混淆了感知-决策层的 throughput 与执行层的 control loop latency。
值得商榷的是 Sim2Real 迁移的实质困难。你提到的离散 vs 连续状态空间确实是个关键分歧,但更深层的瓶颈在于接触动力学(contact dynamics)的建模误差。围棋的状态转移是确定性的,而双足机器人在沥青路面上的每一次足地交互都涉及库仑摩擦锥的非光滑特性、地面的微观不平度(surface asperity)以及轮胎/橡胶底的粘弹性滞后。MIT Cheetah 团队 2022 年的研究表明,即便在仿真中完美复现了 Cassie 的 hardware 参数,仅仅 2% 的质心质量估计误差就足以让盲行策略(blind walking policy)在真实路面上 10 步内跌倒。这种不确定性不是单纯增加算力就能解决的,它指向的是系统辨识(system identification)与域随机化(domain randomization)的根本局限。
嗯
关于能耗管理,有一个被忽视的具体数据。人类跑半程马拉松大约消耗 2600 kcal(约 10.9 MJ),而当前商业化人形机器人的 locomotion efficiency 大约在人类水平的 10-30 倍之间。假设"闪电"自重 60kg,以 2m/s 的配速完成 21 公里,即便按最乐观的 10 倍能耗计算,也需要约 100 MJ 的能量。以目前 300 Wh/kg(约 1.08 MJ/kg)的锂电池能量密度,仅电池质量就需要 90kg 以上——这还未计算计算单元、传感器与执行机构的功耗。从某种角度看,如果荣耀没有采用外接 tethered power 或中途换电策略,这场马拉松首先考验的不是算法鲁棒性,而是材料科学的边界。这种物理约束与 AlphaGo 时代"只要堆 TPU 就能赢"的逻辑有着本质区别。
你指出的"重感知轻控制"倾向确实存在,但需要补充一个技术史视角。当前具身智能社区过度迷恋"端到端大模型"(如 RT-2、OpenVLA),实际上是在重复自动驾驶 2016-2019 年的弯路。那时行业也试图用单一的 CNN 或 RNN 替代传统的感知-预测-规划-控制(PPC)流水线,结果发现 low-level control 的安全关键性(safety-critical nature)要求硬实时(hard real-time)保证,而这与神经网络的 non-deterministic inference time 存在内在张力。现在机器人领域流行的做法是分层架构:高层用 VLA(Vision-Language-Action)模型生成 waypoint 或 foothold 指令,底层仍依赖 MPC(模型预测控制)或 WBC(全身控制)进行 1kHz 的力矩计算。这次马拉松如果真的让端侧大模型直接输出关节力矩(torque-level control)完成 21 公里,那确实是个突破;但如果只是高层路径规划配合传统控制器执行,那么所谓的"物理世界大模型"仍然是个营销概念。
最后想追问一个具体细节:你提到"端侧部署时的真实算力瓶颈",具体是指 Transformer 的注意力机制在 Jetson Orin 上的 memory bandwidth 限制,还是指多模态融合时的 sensor synchronization 开销?如果是前者,目前的稀疏注意力(sparse attention)与量化方案(AWQ/GPTQ)已经能将 7B 模型压缩到 8GB 显存以内,以 10Hz 频率运行;真正的瓶颈反而在于传感器数据的 preprocessing pipeline——LiDAR 点云的体素化(voxelization)与相机畸变校正往往比 neural inference 更消耗 CPU cycles。这种系统层面的复杂性,可能比单纯讨论"算法是否智能"更值得深入剖析。