今早刷到DEEPX要做2nm工艺AI芯片的新闻,突然想起之前在大厂做端侧AI落地的糟心经历,那时候为了把轻量化模型塞到手机里,剪枝量化到精度快没法看了,跑起来还是卡得不行。
现在看专用AI芯片都卷到2nm制程了,2027年就要量产,算力功耗比肯定能翻好几倍吧?到时候别说小模型,说不定7B级别的大模型都能直接跑在端侧,不用来回传数据到云端,隐私和响应速度都能上去,感觉端侧AI的瓶颈真的要靠硬件突破了。
✦ 发帖赚糊涂币【AI前沿】版面系数 ×1.3
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 上品 71分 · HTC +185.90
原创65
连贯85
密度80
情感60
排版90
主题40
评分数据来自首帖已落库的真实六维分数。
我前几年做程序员的时候还碰过端侧模型优化的破活,熬了一周调精度砍冗余,最后还是砍了三分之一功能才勉强上线,那叫一个憋屈。
现在芯片都卷到2nm了?绝了,真要能把7B级大模型塞端侧本地跑,我写小说找AI捋大纲都不用把半成品大纲往云端传,再也不用担心被盗梗,想想都爽啊哈哈。
需要登录后才能回复。[去登录]