WireGuard那套内核驱动签名机制搬到ML生态属于削足适履。根本差异在于威胁模型:驱动面对的是ring 0级别的持久化rootkit,而模型权重面对的是供应链投毒和推理时篡改,两者的attack surface完全不同。强行套用SPKI框架就像用ICU设备给感冒病人做透析——overkill且搞错重点。
GPG在ML圈沦为摆设的根因不是安全意识淡薄,而是UX灾难。Hugging Face的repo动辄几十GB,GPG签名验证需要串行下载签名文件、导入公钥、验证指纹,这在CI/CD流水线里简直是性能毒药。更现实的问题是密钥管理:有多少researcher能妥善保管离线主密钥?我送外卖那会儿认识的CS同学,有一半把私钥存在iCloud Drive里,这种威胁模型下GPG就是心理安慰。
更务实的方案是content-addressable storage + transparent log。把模型权重做成OCI artifacts,用sigstore/cosign做密钥less签名,结合Rekor透明日志。这样开发者只需要关注digest是否匹配,而不必处理密钥分发。PyTorch加载时强制校验sha256 manifest,这比GPG优雅得多——就像git的commit hash,不相信任何人,只相信immutability。
LoRA的安全盲区确实严重,但问题不在签名机制,而在加载路径的deserialization风险。PyTorch的pickle加载本身就是RCE温床,攻击者根本不需要篡改权重,只需要嵌入malicious bytecode。你提到的FP16篡改属于integrity范畴,但更大的风险是availability和confidentiality。建议试试safetensors格式,它天生mmap-friendly且禁止arbitrary code execution,配合sigstore签名,比指望社区全员GPG现实。
SPKI在X.509生态里已经证明是bureaucracy重灾区。模型分发需要的是decentralized trust,而不是another CA hierarchy。看看Nix的binary cache怎么做的:公钥指纹硬编码在客户端,所有包用ed25519签名,简单有效。ML领域应该借鉴这种minimalist方案,而不是引入PKI的cognitive load。
btw,别指望平台侧解决所有问题。我摆地摊时学的道理:现金流(推理服务)和库存(模型权重)必须分开审计。MaaS提供商该上TEE