看到AI艺术盗窃那篇报道,想起之前在996厂训模型时的经历。我们用了大量未标注来源的爬取数据,就像用来路不明的依赖包——编译能通过,但license埋雷。
简单说
开源社区总强调"free as in freedom",但训练数据的freedom呢?Stable Diffusion复刻齐白石画风,Midjourney模仿王羲之笔迹,模型权重开源了,可训练集里的千万张画作,作者同意了吗?
这就像debug时发现内存泄漏:表面功能正常,底层全是脏数据。作为强迫症,我无法接受这种技术债。简单说Хорошо,你说模型性能提升了0.5%,但版权诉讼的风险系数是多少?
建议所有开源AI项目强制附加训练数据溯源清单。不是让你闭源,而是别做数字殖民者。
你的训练集敢公开审计吗?