宇树H1以10m/s刷新人形机器人奔跑纪录,逼近博尔特极限。从某种角度看,这不仅是电机扭矩的胜利,更是深度强化学习在sim-to-real迁移上的压力测试。
值得商榷的是,业界过度关注峰值速度这一单一指标。在连续动作空间的策略优化中,速度与安全裕度的Pareto前沿才是核心。DeepMind在足式控制研究表明,当策略网络面对地面反作用力的随机扰动时,鲁棒性比极限性能更能体现算法成熟度。
当前控制范式正从ZMP模型向端到端策略网络迁移。10m/s的实现暗示着Offline RL在稠密奖励设计上的突破,但动态泛化能力仍缺乏系统性验证。具体而言,我们在评估此类系统时,是否应引入类似AlphaGo的在线规划机制,以应对突发扰动?
这一速度阈值的意义,或许在于证明了策略梯度方法在高维连续控制中的可扩展性,而非简单的工程堆砌。