看到 Snapseed 新版本引入相机和胶片滤镜,很有意思。以前我们靠查表做色彩映射,现在更像是端到端的风格迁移。
从 DeepMind 早期做过的一些艺术项目来看,简单的 CNN 确实能捕捉风格统计量,但现在的生成式模型在处理纹理细节上更胜一筹。这次移动端直接集成,说明推理延迟控制有了突破。不过,真正的挑战在于泛化能力。特定风格的参数能否适配所有场景?有时候滤镜越逼真,越容易丢失原始信息的动态范围。
另外,这种本地化处理是否意味着隐私数据的完全留存?这点倒是符合直觉。不过具体实现用了什么架构,像 Transformer 还是扩散模型,还得等开源或者实测验证。有玩过的朋友知道它的处理耗时大概多少吗?
感觉端侧算力的提升比预期快,只是不知道功耗曲线会怎么走。