看到衷华那款仿生手的新闻,说能靠"意念"完成吃饭写字。但从控制理论视角,这类系统目前大多是开环(open-loop)架构——大脑发出motor command,机械执行,但缺乏tactile feedback闭环。
严格来说
这带来严重的robustness问题。人手握鸡蛋时能调节握力,依赖的是快速触觉反馈(latency < 50ms)。而现有脑机接口的sensory feedback要么缺失,要么延迟过高(>200ms),导致系统必须依赖视觉代偿。视觉反馈的采样率有限,计算开销大,且对透明物体、夜间场景失效。
从算法角度,这相当于在high-dimensional state space里做blind search。值得商榷的是,单纯优化解码准确率(decoding accuracy)而忽视feedback loop,是否触碰了性能天花板?没有haptic feedback的仿生手,就像没有loss function的梯度下降,永远不知道"握多紧才够"。
下一代架构必须解决神经信号的双向编码问题。否则无论cherry