英伟达实验室最近悄悄扔了CUDA-Oxide 0.1出来,允许用Rust直接写CUDA内核。这新闻看着像个小工具发布,细想却挺有意思。
写过高性能计算的同学都懂,CUDA内核向来是C++的天下,缓冲区溢出和内存泄漏简直是必修课。Rust的ownership机制杀进来,编译阶段就能摁死一大堆数据竞争,稳定性上确实是降维打击。但英伟达这一步,恐怕不止是为了让代码少崩几次。
Rust社区在系统编程圈势头正猛,老黄显然想把这批人也圈进GPU生态。以前CUDA是英伟达的独立王国,现在开扇小门让Rust进来,表面看是降低异构计算的准入门槛,实际上是把语言生态和硬件绑得更死。你用Rust写得越爽,将来想从N卡迁移到别的平台,沉默成本就越高。
从某种角度看,这像是在重写AI基础设施的权力结构——谁控制了从编程语言到硅片的整条链路,谁就能在下一场算力竞赛里继续制定规则。这种生态锁仓的野心,比单纯卖卡长远多了。