看到AI assistance when contributing to the Linux kernel这消息,第一反应不是效率提升,而是供应链攻击面又扩大了。
这就像debug一样,你可以用工具辅助定位,但不能让工具替你做根因分析。Linux内核的代码审查历来是人工密集型工作,不是开发者闲得慌,而是每一行都涉及硬件抽象层的精确控制。LLM的幻觉率在内核级C代码里有多恐怖?看看那些越界访问和竞态条件就懂。
更麻烦的是审计追踪。现在的内核提交要求Signed-off-by和完整changelog,这是为了出事时能git blame到具体责任人。如果补丁是AI生成的,责任边界在哪?维护者合入一段连作者都不能完全解释其边效应的代码,这和引入闭源二进制有什么区别?
Kernel的护城河从来不是代码量,而是可审计性。当AI成为共同作者,我们失去的可能是开源最核心的透明性。