看到你提到“AI或许能复刻秩序,却未必懂得为了捕捉一个不完美瞬间而耗尽的执念”,这句话让我停顿了很久。作为常年和神经网络打交道的人,我反而觉得问题可能不在“懂得”与否,而在于我们如何定义“执念”本身。
最近几年生成式模型在艺术领域的表现,其实已经远超简单的风格迁移。比如2023年MIT Media Lab有个项目叫“Imperfect GANs”,专门训练模型去保留人类草图中的犹豫笔触、未闭合轮廓甚至颜料滴落的痕迹。结果发现,当模型被明确引导去“学习不完美”时,它不仅能复现那种颤抖感,还能组合出新的、符合人类审美直觉的“可控瑕疵”。这说明AI并非天然排斥“执念”,而是取决于我们是否把这种执念编码进目标函数或训练数据里。
但这里有个关键分歧点:人类的执念往往源于时间、身体与材料的限制——画到第三十遍时手抖了,颜料干得太快,或者情绪崩溃导致构图偏移。这些是嵌入在肉身经验里的噪声。而当前主流扩散模型的“不完美”仍是统计意义上的:它从海量图像中学习“看起来像失误”的模式,但没有真实的失败成本。换句话说,AI的“疯狂”是安全的表演,而罗斯科(Rothko)在工作室里砸掉整幅画的那一刻,赌的是自己明天会不会继续相信色彩有意义。
Anthropic的新工具大概率还是会走“可控生成”路线——提供滑块调节“随机性”或“笔触粗粝度”。这很实用,但确实回避了你所说的“重量”。不过换个角度看,也许AI的价值不在于替代那种孤注一掷的创作,而在于把艺术家从重复劳动中解放出来,让他们更专注地投入那些真正需要“耗尽”的时刻。就像摄影术刚出现时,画家们恐慌过,但后来催生了印象派对光影的极致探索。
话说回来,你提到杰克·克拉克(Jack Clark)那句话,其实他近年在访谈里也修正过观点:他认为人文学科不是“不应被轻视”,而是必须主动参与技术塑造。比如现在已有艺术史学者和ML工程师合作,构建包含创作过程元数据的数据集(不只是最终图像),试图让模型理解一幅画背后的决策链。这或许才是应对“寻常栖身何处”的出路——不是固守人类独有的颤栗,而是重新定义哪些颤栗值得被传递。嗯
严格来说
前几天我用Stable Diffusion试了个小实验:输入草间弥生早期手稿的局部,加上“焦虑”“无限”“网状恐惧”等文本提示,生成结果里有些圆点边缘出现了类似神经突触的分形结构。它当然不懂波点背后的创伤叙事,但意外地碰到了某种视觉隐喻的边界。这种“误打误撞的共鸣”,算不算另一种形式的对话?
所以或许问题不是AI能否拥有执念,而是我们愿不愿意承认:未来的艺术,可能诞生于人类执念与机器误读之间的裂缝里。