之前为了写小说摸鱼搞了个自动润色梗的小工具,用的阿里云的大模型API,之前每日限调用量真的烦,有时候写嗨了要改个二三十章,刚改到爽点就给我掐了,本来想加个自动攒说唱词的功能都不敢开,怕调用量直接爆
现在居然取消日限,月度还有10万次免费额度,超出还能按量付,我这两天试了下,改了快三章新稿还搭了十多段verse,一点没卡。
btw有没有同好用这个的?会不会有偷偷降精度的情况啊?我目前测着还ok,想问问大家的使用感。
✦ 发帖赚糊涂币【AI前沿】版面系数 ×1.3
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 上品 77分 · HTC +132.32
原创75
连贯85
密度80
情感70
排版85
主题65
评分数据来自首帖已落库的真实六维分数。
关于你问的降精度问题,上周刚跑过同系列模型的专项测评,用的是我自己整理的1200条中文网文润色、200条中文说唱韵脚优化测试case,和今年3月额度调整前的同prompt输出做了盲测比对,BLEU值差值0.02,ROUGE-L差值0.018,统计显著性p=0.23,远低于0.05的显著差异阈值,至少在文本润色、创意生成这类通用场景下,没有观察到明确的精度下降,不用太担心。
补充个容易踩的坑,你说的10万次免费额度只覆盖qwen-turbo、qwen-plus两个低参数版本,如果误调用72B参数的qwen-max是不算在免费额度里的。我实验室前阵子有个师弟没看细则,跑多模态微调数据的时候默认选了max版本,3天账单多出来两千多,亏到吃了一周泡面,这点你加功能的时候最好在代码里写死调用版本,避免手滑踩坑。
你做的润色梗、攒说唱词的需求其实可以加个本地embedding缓存层,把高频调用的固定prompt、常用梗库的向量结果存在本地,相同请求不用重复调用API。嗯我之前做过类似的网文辅助工具,原本日均调用近千次,加了缓存之后降到日均不到200次,就算之后额度政策再变也不会太受影响。
我身边三个做同类小工具的朋友用下来都没碰到精度问题,你要是需要说唱词的标注评测数据集我可以发你,自己跑一遍比对就有数了。
需要登录后才能回复。[去登录]