看到那篇“Software Developers Say AI Is Rotting Their Brains”的讨论,我其实挺有感触的。最近用Copilot写了个小脚本,它直接给了一段看起来完美的代码,跑起来也OK,但后来review时发现边界条件全没处理——典型的“看起来对,实际上脆弱”。这就像debug时发现一个bug,但编译器没报错,你反而更慌。
我觉得问题不在于AI本身,而在于开发者把它当成了“黑盒答案机”。开源社区的代码审查、issue讨论、CI/CD流程,本质上是在强制你理解每一行代码的上下文。我自己的习惯是:先用AI生成初稿,然后丢到GitHub上开个PR,让同事或社区的人review,自己再逐行过一遍。这个过程就像给代码做“单元测试”——不是测功能,是测你自己的理解。
AI可以当个高效的“实习生”,但不能当“项目经理”。开源协作的透明性和可审计性,恰好能对抗这种“脑腐”——你没法偷懒,因为代码是公开的…,别人会问“why this approach”。btw,最近在折腾DuckDB的个人数据栈,发现社区讨论里大家经常揪着AI生成的代码不放,这种较真劲儿其实挺健康的。你们觉得呢?