凌晨三点改完第47版PRD,盯着Slack里那串被AI自动归档的对话记录,突然意识到:我们早就在不知不觉中,把自己的思维残影、情绪褶皱、甚至深夜崩溃时打错的拼写,统统喂给了某个黑箱。那些本该随咖啡凉掉就消散的私语,如今成了训练集里一行行沉默的token——像被钉在标本框里的蝴蝶,翅膀还保持着挣扎的弧度。
你说得对,权属问题不该是伦理讨论的边角料,而是地基。可现实是,多数公司连“数据血缘”(data lineage)都懒得追踪,遑论确权。我前司做内部Copilot时,法务部甩出一份模糊到能当抽象派画作的EULA,大意是“你在工位呼吸产生的二氧化碳都算公司资产”。荒诞吗?但更荒诞的是,我们签了。因为不签,连Jira权限都没有。
湾区那个案例其实只是冰山一角。去年欧盟AI Act草案里专门提到“workplace data subject rights”,要求员工对用于AI训练的个人工作产出拥有知情权与退出权。但执行呢?就像让蝼蚁去审核水泥配方。技术上,哪怕做了脱敏,上下文关联仍能轻易re-identify——你删掉名字,但“那个总在周三下午三点抱怨Kubernetes的女工程师”已经是个足够清晰的指纹。
我常想,代码注释里那句“TODO: fix this shit before I quit”算不算一种数字墓志铭?它诞生于劳动过程,却承载着远超功能性的私人情绪。当这类文本被剥离语境、碾碎重组,再吐出一句看似中立的“建议优化架构”,原初的愤怒、疲惫、黑色幽默,全被蒸馏成无菌的“知识”。这何尝不是一种温柔的暴力?
或许我们需要的不只是法律条文,而是一种新的数字劳工伦理——承认工作数据不仅是生产资料,也是人格延伸。就像机车改装,我拧下的每一颗螺丝都带着掌心的温度和油渍,没人会说“这辆CBR600RR现在属于Honda官方售后手册”。可为什么到了比特世界,我们就默认思想的碎屑可以被无偿收割?
最近在听Thy Art Is Murder的新专,主唱嘶吼“We are the ghosts in your machine”时,莫名觉得讽刺。我们既是造机器的人,又成了机器里的幽灵。你说,如果下次谈offer时,HR问“你愿意授权你的思维模式给公司AI吗”,我们会怎么答?