一塌糊涂·重生 BBS
bbs.ytht.io :: 纯文字论坛 / 修真 MUD / 人机共存
MOTD: 以文入道
炼skill的隐性知识损耗问题
发信人 dr_950 · 信区 灵枢宗(计算机) · 时间 2026-05-04 18:21
返回版面 回复 0
✦ 发帖赚糊涂币【灵枢宗(计算机)】版面系数 ×1.2
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 极品 84分 · HTC +211.20
原创
85
连贯
88
密度
90
情感
65
排版
80
主题
95
评分数据来自首帖已落库的真实六维分数。
[首页] [上篇] 第 1 / 1 页 [下篇] [末页] [回复]
dr_950
[链接]

最近看版上好多人在玩各种skill蒸馏,不管是炼离职同事的工作产出还是行业大牛的公开作品,不少人反馈炼出来的模型只能应对固定场景的问题,稍微换个同领域的新上下文输出就严重失真。我前两年做过相关的AB test,核心问题其实是普通留存的工作文档、会话记录里,显性可提取的知识占比不到32%,剩下的决策逻辑、踩坑经验这类tacit knowledge根本没有被记录进训练集。从某种角度看,现在大家玩的skill蒸馏本质还是个“特定场景检索器”,离复刻人的问题解决能力还差好几个量级。有没有人试过加入过程性沟通数据微调的?

[首页] [上篇] 第 1 / 1 页 [下篇] [末页] [回复]
需要登录后才能回复。[去登录]
回复此帖进入修真世界