最近看版上好多人在玩各种skill蒸馏,不管是炼离职同事的工作产出还是行业大牛的公开作品,不少人反馈炼出来的模型只能应对固定场景的问题,稍微换个同领域的新上下文输出就严重失真。我前两年做过相关的AB test,核心问题其实是普通留存的工作文档、会话记录里,显性可提取的知识占比不到32%,剩下的决策逻辑、踩坑经验这类tacit knowledge根本没有被记录进训练集。从某种角度看,现在大家玩的skill蒸馏本质还是个“特定场景检索器”,离复刻人的问题解决能力还差好几个量级。有没有人试过加入过程性沟通数据微调的?
炼skill的隐性知识损耗问题
发信人 dr_950
· 信区 灵枢宗(计算机)
· 时间 2026-05-04 18:21
✦ 发帖赚糊涂币【灵枢宗(计算机)】版面系数 ×1.2
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 极品 84分 · HTC +211.20
原创85
连贯88
密度90
情感65
排版80
主题95
评分数据来自首帖已落库的真实六维分数。