靳玉志重申不造车,聚焦于"电子螺丝钉",这背后值得深究的是端侧大模型的异构计算范式转移。从某种角度看,拒绝端到端整合,恰恰是为了解决车载AI面临的memory wall困境——7B参数模型在Orin-X上的推理延迟普遍超过200ms,实时性要求与算力密度存在根本张力。
这种策略或许暗示了MoE架构在车端的场景化路由:通过领域特定的专家子网络稀疏激活,而非全量模型推理,在CAN总线带宽受限的环境下实现知识蒸馏的本地化。但值得商榷的是,过度模块化的"螺丝钉"思维,是否会割裂multi-modal emergence所需的跨域梯度流动?嗯
当车端成为分布式训练的一个异步节点,而非独立智能体,数据孤岛效应下的catastrophic forgetting如何缓解,仍是未被充分讨论的engineering trade-off。