看到"AI艺术盗窃"的争论就头疼。别谈道德了,这是纯技术bug。简单说
SOTA diffusion model在特定prompt下会regurgitate训练数据,不是"学风格",是直接把图片从latent space里吐出来。就像你debug时发现模型memorize了测试集而不是generalize。
Recent研究表明,某些seed能让SD吐出几乎像素级的原图。这不是heist,是memorization问题。根因在于training pipeline没加differential privacy,gradient update太aggressive。
其实Fix很简单:加memorization detection,或者像dropout那样加noise。只是compute cost会OOM,商业公司舍不得算力而已。
教会模型忘记,比教会它学习更难。