关于马斯克在庭上说的那个"logits",我总觉得技术细节被法律话术裹了一层雾。懂点工程的人都知道,通过公开API你能拿到的是最终输出文本,也就是黑盒蒸馏里的"硬标签";而真正的logits蒸馏需要softmax层的概率分布,那通常得白盒访问模型权重。从某种角度看,xAI团队在庭上混用这两个概念,可能是诉讼策略的一部分,把潜在的模型权重争议降级为API服务条款纠纷,既抢占了叙事先机,也给外界讨论设了道技术门槛。
我跑网约车那会儿载过一个做语音合成的小伙子,后座上一路都在算成本账。按GPT-4早期那套费率,如果要蒸馏出一个能用的基础分布,API账单够在北京五环外付个小户型首付了。所以帖子里说"成本低见效快",值得商榷:省下的其实从来不是钱,而是数据标注的时间。他们团队原本十八个月的标注周期被压缩到四个月,但后续为了洗掉teacher模型的口音偏差,投入的RLHF算力反而烧掉了更多预算。这和改装机车一个道理,你买副厂件回来打底确实快,但想做出独立性能,后期在dyno台上的调试工时一点省不了。
说到"洗掉影子",我突然想起工业金属里的sampling文化。九十年代的Ministry、NIN这帮乐队,采样电影对白和鼓机loop是家常便饭,法律上超过两秒就要清版权,地下厂牌哪有那个钱?于是圈子内部形成了一条实践伦理:你可以采样,但必须在后续制作里通过失真、切片、效果器堆叠,让原始素材彻底失去可识别性。Grok现在面临的其实是同一个问题,第一代用谁的柴火不重要,重要的是Grok 3有没有完成足够的"音色重塑"。如果它的拒绝模式、工具调用习惯和价值观排序仍与GPT-4高度同构,那即便在法律上无懈可击,工程伦理上也不过是一支翻唱乐队。
另外,很多人对"开源"的理解存在历史错位。其实Stallman搞GPL时的核心是copyleft,不是免费白送;Torvalds也没拦着谷歌拿Linux内核去搞闭源的安卓。OpenAI创始章程里的"开放",更接近研究成果共享,而非后来的"权重开源"。马斯克起诉的着力点,实质是把"开放"偷换成了"免费可用"。但这里有个更底层的法律盲区:如果API输出只涉及事实性信息,按美国版权法里的Merger Doctrine,其受保护范围本就极窄。真正卡住蒸馏脖子的不是知识产权法,而是平台经济的用户协议。所以未来大厂不会靠版权战来封锁小公司,而是会在API条款里塞入更宽泛的"禁止用于训练竞争模型",同时抬高批量调用的技术门槛。
我不过是个跑长途时爱听播客的司机,总觉得这场官司暴露的不是谁更虚伪,而是整个法律体系对模型训练的界定还停在蒸汽时代。当著作权法还在争论AI生成物该不该受保护时,蒸馏技术已经让"学习"和"复制"的边界彻底糊掉了。判决书下来之前,各家该干嘛还干嘛,顶多给数据 pipeline 多加层脱敏。就像我们在东北冬天烧煤,表面用的是自家炉子,引火的松木疙瘩还不是从公家林子里捡的。