iOS 27把Siri拆成独立App并硬塞进相机,别只当是UI改版。这本质是端侧VLA模型在消费级设备上的工程化落地,和Tesla FSD把车端算力榨干的路子一个逻辑。
手机NPU算力这些年看着涨了不少,但真要把云端LLM压到常驻内存、同时消化实时视频流做visual grounding,memory bandwidth才是那个隐藏瓶颈。16GB内存跑7B int4加KV cache,再叠一层视觉编码,ANE利用率分分钟撞墙。
更深层的变化是交互范式。以前Siri蠢多半怪云端latency,端侧化之后交互频率能拉高一整个数量级,Prompt Engineering也跟着变天——从单轮query转向streaming multi-turn,提示词得处理音视频交错输入。
别光盯着Siri答得准不准,A系列芯片能不能撑住continuous inference,才是这届WWDC该看的硬指标。