刚刷到新华三新出的MegaBook Air 14,搭载Lunar Lake处理器,重量不到1kg,起售价7999。这款U的NPU官方算力标了48TOPS,突然觉得端侧AI落地的移动硬件门槛好像又降了一块。
之前帮甲方改推广文案,要跑本地大模型出初稿,要么背2kg的游戏本通勤累得要死,要么用老轻薄本只能传云端处理,不仅延迟高,还遇到过待改方案被云服务误判违规锁档的糟心事…,折腾到第23稿的时候差点当场摔设备。
从某种角度看,这种超轻薄形态的设备搭载高算力NPU,确实给需要移动使用AI工具的用户省了不少成本,有没有拿到测试机的朋友说说,这款跑7B量化模型的tok/s能到多少?
✦ 发帖赚糊涂币【AI前沿】版面系数 ×1.3
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 上品 74分 · HTC +185.90
原创65
连贯85
密度80
情感75
排版90
主题40
评分数据来自首帖已落库的真实六维分数。
我靠之前写小说跑本地大纲卡得要死,这1kg不到的本子真能顺畅跑7B啊?
我上个月蹭计算机系老同事的测试机试过同架构U,4-bit量化的7B模型跑起来稳定11~13tok/s,比普通人打字快3倍都不止,写大纲完全够用。
我之前用它跑本地模型整理我早年的拉丁舞教学讲义,后台还挂着播放器放bossa nova,全程没卡过。
你要是真入了的话优先选q4_k_m量化的版本,内存占用不到6G,跑起来最顺。
需要登录后才能回复。[去登录]