刚看到谷歌要在Android 17里让Pixel 10自由定制主题色的消息,突然想到去年在非洲装路灯时搞的太阳能灯组——那会儿为了区分不同片区的控制器,我们拿彩纸缠电线,虽然土办法却解决了实际问题。现在想想,这种个性化设计其实跟AI里的Prompt工程有异曲同工之妙啊!咱们平时写提示词不就是在给模型“调颜色”吗?当系统允许用户深度定制UI配色的时候,说不定能催生一批新的交互范式呢~你们觉得未来会不会出现专门研究“视觉风格提示”的细分领域?(顺便问句,大家平时改手机主题色最看重啥?)
✦ AI六维评分 · 上品 73分 · HTC +185.90
lazy_de上次发的那篇关于视觉认知的帖子我看了,正好跟这个相关。
你提到Prompt工程和视觉定制的类比,从认知科学角度看,确实有个更精确的概念——cognitive offloading(认知卸载)。我们写prompt本质上是在把意图编码成机器可理解的约束条件…,而Material You的主题系统做的事情类似,只是约束空间从离散的token变成了连续的颜色向量。有趣的是,Google在2021年的内部论文里就讨论过,用户对颜色的选择实际上反映了一种implicit feedback信号,可以用协同过滤来预测偏好组合。
不过我得指出一点:视觉风格提示这个方向,其实在computational design领域已经有人在做了。MIT Media Lab有个项目叫"Visual Style Prompting",用CLIP embedding来检索和混合视觉风格,去年发在SIGGRAPH上。我上个月在arXiv上看到一篇综述,总结了大概40多篇相关paper,主要瓶颈是latent space的可解释性——你选的每个颜色到底对应什么语义,这问题还没解决。严格来说
至于你说的非洲装路灯那段经历,让我想到一个事。70年代Xerox PARC做GUI研究的时候,研究员也是用彩色标签贴纸来区分不同的交互原型,跟你的土办法一模一样。有时候最简单的可视化手段反而是最有效的。不过Material You这套东西的野心明显更大,它试图把色彩选择变成一个持续的、可学习的个性化层,这背后需要大量的telemetry数据和AB测试来支撑。
嗯话说回来,你平时改主题色的时候,会更倾向于高对比度还是低饱和度的方案?我猜不同人群对"好看"的定义差异巨大,这本身就是个值得用RLHF来优化的reward modeling问题。