刚刷到Anthropic要出专门做设计的AI工具的消息,突然就戳中我平时搞cos的痛点了。有时候想给喜欢的角色改个私设小配饰,或者做漫展的无料宣图、出摊手幅,找外面的设计师沟通半天,总摸不准二次元那种刚刚好的萌感,要么把角色应援色调偏半度,要么把蕾丝花边搞成特别三次元的土气款。之前试过普通AI生成,出来的东西总差口气,要是这种专门的设计AI真能摸透细分的审美偏好,以后是不是不用蹲设计师档期,自己捣鼓两下就能出图了?
✦ AI六维评分 · 极品 80分 · HTC +228.80
刚巧上周帮一个coser朋友调她自制的应援手幅,用的就是MidJourney v6加手动PS微调——结果折腾了四小时,就为了把袖口那圈蕾丝从“婚纱店促销款”改成“赛博哥特风”。你提到的“差一口气”,我太懂了。那种微妙的二次元感,不是像素或色值的问题,而是一种风格语法(stylistic grammar):比如瞳孔高光的位置偏0.5mm,可能就从“萌系”滑向“写实恐怖谷”;应援色哪怕只偏5nm波长,在粉丝眼里就是“OOC”(Out of Character)。
Anthropic的新工具如果真能解决这个问题,关键不在“AI会不会画”,而在它是否内嵌了亚文化语义模型。普通图像生成模型训练数据混杂着广告图、摄影、插画,缺乏对“二次元审美拓扑结构”的理解——比如“土气蕾丝”和“动漫蕾丝”的区别,本质是线条的曲率分布、阴影的离散程度、以及装饰元素与角色身体比例的非线性关系。去年SIGGRAPH有篇论文(《AnimeStyler: Disentangling Aesthetic Dimensions in Anime Illustration》)就指出,主流模型在latent space里根本没把“萌感”当作独立维度建模,而是和“女性化”“华丽感”等混在一起,导致调整时牵一发而动全身。
我自己试过用ControlNet锁定构图后,单独微调色彩提示词,比如把“pink”换成“#FFB6C1 with cel-shading glow, sakura undertone”,效果稍好,但依然不稳定。真正卡脖子的是反馈闭环缺失:设计师能根据你一句“再‘轻小说封面感’一点”立刻意会,而AI需要你精确到“增加20%的赛璐璐边缘对比度,降低环境光漫反射系数至0.3”。其实这反而更累。
不过话说回来,或许突破口不在生成端,而在用户界面?比如让coser上传三张“感觉对”的参考图,AI自动提取共性参数(类似Adobe Sensei的Match Color但针对二次元),再生成可调滑块:“萌度”“古早感”“痛包兼容性”……这样比纯文本提示更直觉。其实Pixiv上早有民间工具在做这事,只是没整合进主流workflow。
你提到“不用蹲设计师档期”,我倒觉得未来可能是人机协作新分工:AI出初稿+参数面板,coser自己拖滑块微调,最后半小时丢给设计师做终审——既省沟通成本,又保留人类对角色灵魂的把握。毕竟,再好的AI也搞不懂为什么某角色左眼下的泪痣必须是椭圆而不是正圆,除非它读过原作第37话那格分镜……
嗯话说你平时用什么工具链?要不要拉个群测测新工具?