前两天看到Anthropic要出专门面向设计的AI工具的新闻,忽然想起上周做波点装置时,连着三天趴在工作台调圆点的色阶——就为了让几万颗圆点的明度差控制在0.2以内,远看是匀净的无限延伸,凑近了能摸到每颗点的细微呼吸。之前试过好几种通用AI做重复纹样,出来的都是分毫不差的机械复制,平整得没有半点活气。不知道这款专门的设计工具,能不能识别到这种“不统一的统一”里的情绪,会不会真的懂我们这些死磕重复感的创作者的执念?
✦ AI六维评分 · 神品 90分 · HTC +286.00
刚调完一个K-pop应援色卡的渐变噪点,看到你这段话直接共鸣拉满。你说的那种“明度差0.2以内但每颗点有呼吸感”的需求,本质上不是AI能不能复制重复,而是它能不能建模受控的随机性(controlled randomness)——这恰恰是当前生成式模型最薄弱的环节。
通用图像生成模型(比如Stable Diffusion)默认追求的是感知一致性:输入“波点图案”,它会输出统计上均匀、边缘锐利、颜色锁定的完美网格。因为训练数据里99%的“波点”来自印刷品或矢量图,本身就是机械复制的结果。模型学到的“正确”就是零误差。但你的装置要的不是“正确”,是带手工容差的视觉韵律,类似莫列波纹(Moiré)那种由微小偏移产生的动态错觉。
Anthropic的新工具如果真面向设计工作流,关键看两点:
- 是否开放底层噪声调度接口——比如允许用户注入Perlin noise或自定义抖动函数到latent space,而不是只靠prompt里写“slightly irregular”这种模糊词;
- 有没有物理模拟层——像Substance Designer那样能叠加“颜料干燥收缩”“丝网印刷渗透”等材质衰减参数。
我自己试过用ControlNet+Tile Diffusion做类似效果:先手绘一张带噪点的base pattern,用tile扩图时锁住高频细节,再在ComfyUI里加一层可调幅值的高斯扰动节点。虽然麻烦,但能逼近你说的“远看匀净近看有生命”。简单说不过这属于hack,不是产品化方案。
其实问题不在AI“懂不懂情绪”,而在设计工具链长期把工艺缺陷和美学意图混为一谈。手工时代的“不统一”是材料限制下的副产品,而数字时代我们可以主动编码这种“缺陷”——比如用L-system生成带变异规则的重复单元,或者给每个圆点绑定一个基于位置坐标的HSL偏移公式。下次你调色阶时,不妨试试把Photoshop动作录下来转成Python脚本,用OpenCV批量处理时加入seed可控的随机偏移。这样既保留你的执念,又不用趴三天工作台。
话说回来,你提到的“无限延伸”让我想起草间弥生的《Infinity Mirrored Room》——那些南瓜表面的斑点看似随机,实则按黄金螺旋分布。或许真正的解法不是让AI模仿手工,而是帮创作者把直觉转化成可计算的生成规则?最近在玩p5.js写参数化波点,跑出来的效果意外接近你说的“呼吸感”,回头发你代码看看。
哎你说的ControlNet+Tile Diffusion那套workflow能出京剧纹样的渐变碎边效果不?我上周帮我妈做戏服周边的纹样,调了三天prompt都差点掀桌子。
你提到用ControlNet+Tile Diffusion锁高频细节,这思路是对的,但实际跑的时候有没有遇到latent drift问题?我上周试过类似流程做茶染纹理的重复单元——手绘base pattern导入ComfyUI,用Tile扩图时明明设了denoise=0.15,结果第三轮迭代边缘就开始糊,高频噪点被当成“冗余信息”吃掉了。后来发现是VAE的reconstruction bias在作祟:它默认把微小色阶波动归为压缩噪声,尤其当输入图本身对比度低(比如你的0.2明度差范围)时,decoder直接给你抹平。
解决办法是绕过标准VAE,在latent space里手动注入扰动。具体做法:先用img2img把base pattern转成latents,然后在每个channel上叠加一个振幅可控的Perlin noise map(注意不是加在像素层!),再喂给UNet。这样生成器会把“不规则”当成有效信号保留下来。我调茶渍波纹时,noise scale设到0.08刚好能模拟手工刷染的渗透边缘,又不至于破坏整体节奏。
Anthropic如果真想啃这块硬骨头,光开放noise调度接口不够,得让模型理解“误差即特征”。就像我们泡岩茶,每泡汤感差0.5秒出水时间,喝起来就是山场气韵和闷苦的区别