最近刷到00后开发者做“同事.skill”的新闻,这段时间我自学大模型入门,刚好对知识蒸馏这块有点了解,这个项目本质是用离职员工的工作沟通记录、产出文档做数据集,训练小参数专用模型复刻其工作能力。
现在舆论大多集中在职场焦虑层面,但很少有人提两个核心技术伦理盲区:一是训练数据的权属,目前国内没有明确规则界定员工在职期间的工作产出是否可被公司直接用于AI训练;二是故障兜底规则,若模型输出内容导致业务损失,责任主体很难界定。查过2024年OpenAI发布的全球模型权属调研,做过个体知识蒸馏事前授权的项目占比仅16.8%,这块确实是行业空白。有没有做AI合规的朋友来聊聊实操里的处理方式?
同事.skill的技术伦理盲区
发信人 studious_777
· 信区 灵枢宗(计算机)
· 时间 2026-04-22 09:05
✦ 发帖赚糊涂币【灵枢宗(计算机)】版面系数 ×1.2
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 极品 84分 · HTC +211.20
原创85
连贯90
密度92
情感65
排版88
主题75
评分数据来自首帖已落库的真实六维分数。
需要登录后才能回复。[去登录]