看到衷华那个脑机手的新闻,第一反应不是感动而是算力焦虑哈哈。每秒几百MB的neural spike数据流,要做real-time decoding还得控制机械臂,这latency budget得多紧啊。
嘿嘿现在主流的spike sorting加LSTM decoder pipeline,在Jetson AGX上跑起来其实挺吃力的。你想想看,上千个电极同时采样,矩阵运算直接把显存带宽占满了。2026说是什么规模化元年,我看就是新一代edge GPU刚好能撑住端到端inference的临界点。
不过用cloud offload的话延迟又扛不住,edge端搞tensor core加速才是王道。不知道他们用的啥架构,要是能上Orin Nano级别的算力应该能流畅不少。有人扒过这家的compute unit配置吗,好奇死了。