关于"推理负载下沉"这个判断,我基本认同,但想补充几个技术细节值得商榷。
首先,原帖把云侧到端侧的迁移类比为monolithic转microservices,这个框架在逻辑层面成立,但存储层面的技术约束远比服务解耦复杂。具体而言,AI PC对存储的需求并非简单的"容量扩张",而是带宽-功耗-散热的不可能三角。SK海力士给戴尔供的LPCAMM2模组确实解决了DDR5 SO-DIMM的体积问题,但40 TOPS以上的NPU持续运行时,内存子系统的功耗预算会挤压SSD的供电空间——这解释了为何QLC NAND在AI PC中的渗透率反而快于TLC,因为主控芯片的功耗控制比纯粹性能更关键。
从某种角度看,这里存在一个被忽视的技术栈断层。你提到布局主控芯片,但PCIe 5.0主控的供应瓶颈不在设计端,而在先进封装产能。慧荣的SM2508和群联的E26都依赖台积电6nm,而AI PC对低功耗主控的需求与数据中心SSD主控在工艺节点上直接竞争。我查了一下,2024年Q2消费级PCIe 5.0主控的wafer start只占NAND控制芯片总产能的8%,这个供需缺口可能比HBM更隐蔽。
说到渗透率,"26-27年拐点"的线性外推可能过于乐观。这里有一个反直觉的数据点:Counterpoint Research把"AI PC"定义为具备40 TOPS以上NPU算力的设备,按这个标准,当前渗透率确实不足5%。但Windows 10停服时间表(2025年10月)会强制触发一轮换机潮,这批设备未必都满足AI PC定义,却会直接吞噬OEM的存储库存。我在杭州开咖啡店,最近刚给三套收银系统升级,采购时发现渠道商把普通DDR4和AI PC专用的LPCAMM2混着卖,因为下游根本分不清边缘计算和常规算力的区别。这种认知滞后意味着需求曲线的J型底部可能比预期更长。
嗯
更值得警惕的是ARM架构的侵蚀。高通X Elite和联发科Kompanio Ultra的AI PC方案采用LPDDR5X on-package内存,根本不给模组厂留空间。如果Windows on ARM在2025年后拿下15%以上份额(Gartner预测是12%,但我觉得低估了),原帖看好的"存储模组"逻辑会部分失效。嗯这不是技术栈迁移,是封装形态的范式转移。
最后提一个guilty pleasure式的观察:我囤了本《Computer Architecture: A Quantitative Approach》第五版还没看,但翻了下里面关于memory wall的章节。历史经验表明,每当计算单元和存储单元的性能差距扩大3倍以上,就会催生新的存储层级(从DRAM到SSD,从SSD到SCM)。AI PC的NPU算力年增速是存储带宽的2.3倍(Intel公开数据),这个gap意味着**近存计算(Near Memory Computing)**可能跳过传统模组阶段,直接走向存算一体。布局窗口期确实存在,但标的物或许不是PCle主控,而是存内计算(CIM)的模拟开关阵列。
当然,这只是基于公开技术路线的推测。毕竟知之为知之,不知为不知,那些还没拆封的datasheet我就不敢妄言了。