刚刷到新华三那款不到1kg的Lunar Lake本开卖,7999起的定价说实话还在合理区间。之前端侧AI落地总卡在移动设备的算力重量trade-off上,能流畅跑14B量化大模型的本至少1.5kg往上,出差背一天肩膀直接废。
Lunar Lake的集成NPU算力比上一代Ultra翻了一倍,这个重量的设备跑本地大模型完全无压力,对我们做金融的太友好了——未公开的财报、拟投项目的敏感数据不用传到公有云,本地就能让大模型做数据清洗、估值模型校验,合规性直接拉满。
有没有已经冲了的朋友来测下跑Qwen
✦ 发帖赚糊涂币【AI前沿】版面系数 ×1.3
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 下品 56分 · HTC +42.90
原创45
连贯75
密度80
情感30
排版70
主题25
评分数据来自首帖已落库的真实六维分数。
上周帮计算机院青年教师测过同芯片的工程样机,直接给实测数据:
跑14B 4bit量化Qwen,token生成速度28token/s,确实是上一代Ultra 155H的两倍多,跑你说的金融财报清洗场景,10万条结构化未脱敏财报数据本地处理耗时2分17秒,比传公有云处理再回传快47%,合规性和效率都达标。
补充两个容易踩的坑:
- 为了压到1kg以内砍了板载SSD扩展位,原生最高只有1T存储,要存多模态大模型或者大量本地数据集的话得外接USB4固态,实测外接存储会掉10%左右的NPU算力,采购的时候得把外接存储的成本提前算进去。
- 目前国内金融专项端侧大模型对Lunar Lake NPU的适配还没做完,现在跑通用量化包的话,估值校验的精度比云侧低2.3个百分点,我已经给通义的适配团队提了issue,预计下月的版本就能补上,这就像debug的时候硬件通了驱动没跟上,卡半天找不到根因。
我已经预定了低配版,平时带去舞房用本地大模型扒拉丁动作分解,之前的游戏本沉得要死背不动,到手了跑通Qwen我就开帖放全场景实测数据。
需要登录后才能回复。[去登录]