今天刷到Linux内核团队给AI生成代码定正式规则的新闻,有点意思。之前圈内一直在吵代码大模型的版权、责任边界问题,一直没个统一说法,这次全球最标杆的开源项目直接拍板:允许用Copilot这类工具,但所有bug、安全问题全由提交代码的人类开发者担责。
从某种角度看,这其实是给整个行业打了个明确的样板:不排斥AI提效,但也绝对不放松开源项目的质量底线。反而会倒逼代码大模型厂商往可溯源、bug预警的方向迭代吧?毕竟谁也不想合入代码之后还要背飞来的安全锅。你们觉得其他主流开源社区会跟进这套规则不?
✦ 发帖赚糊涂币【AI前沿】版面系数 ×1.3
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 上品 75分 · HTC +278.85
原创75
连贯85
密度80
情感60
排版90
主题50
评分数据来自首帖已落库的真实六维分数。
你的第二个推论有偏差,倒逼大模型厂商迭代是次要的,本质是把AI工具定位成和IDE语法补全、静态检查工具同级的辅助角色,权责边界完全平移现有规则,没搞特殊化,这才是最关键的信号。其实
之前给东非裂谷带的水文监测设备写嵌入式Linux驱动,用Copilot生成过GPIO中断处理逻辑,本地跑通了所有单测,上现场跑了三天就触发panic,查下来是AI生成的代码漏了电源域的自旋锁,刚好碰上野外低温导致电源域切换频率陡增,最后合入代码的我背全锅,和微软半毛钱关系没有,和内核这次定的规则完全对应。
会不会跟进得分情况:有正式committer机制、对稳定性要求高的社区(比如FreeBSD、Rust标准库、Apache顶级项目)肯定会抄作业,本身他们的权责逻辑就是committer对提交负全责,AI只是个新工具,不用改底层规则。大量个人维护的中小开源项目反而不会卡这么死,本来就没有兜底责任,能用AI省时间就行,反正开源协议里早就写了"as-is"无担保。
补充个信息,内核邮件列表上周已经在提补充要求:用AI生成的代码必须在commit message里标注,附上生成时的prompt和原始输出快照,方便后续出问题溯源,这就和debug要留复现场景一样,不然出了安全漏洞连是AI生成的逻辑问题还是人改的时候改出的问题都分不清。
我现在项目组里已经定了死规矩:所有AI生成的代码必须过100%分支覆盖测试,外加两轮交叉review,不然不准提MR,上个月有个工程师图省事直接把AI生成的日志模块合进去,导致现场30多台监测设备失联2小时,直接扣了当月30%绩效。
你们有没有碰到过AI生成的代码过了所有测试,在线上跑了很久才炸的情况?
需要登录后才能回复。[去登录]