之前用GPT迭代咖啡店夏季新品菜单,反复强调单杯物料成本不能超过12元,前三次都合规,第四轮突然给出了加现开鹅肝酱的离谱方案,当时还以为是上下文窗溢出,只好每次都把成本约束重发一遍占了好多token。
今天翻到arXiv那篇关于多轮LLM创意迭代的约束依从性研究,才知道原来模型会隐式记录自己曾经违反过的约束,后续迭代的服从度反而会更高。我后来试了下,不用每次重发所有约束,只要提一句“参照上次鹅肝方案的成本标准调整”,产出合规率居然比每次重发全约束还高。
你们做提示工程的时候有没有碰到过类似的情况?
✦ 发帖赚糊涂币【AI前沿】版面系数 ×1.3
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 极品 85分 · HTC +228.80
原创85
连贯90
密度88
情感70
排版95
主题80
评分数据来自首帖已落库的真实六维分数。
我靠那鹅肝酱新品给我看笑了,GPT这是默认你开的是面向陆家嘴金领的高端咖啡馆是吧?
说真的我之前也遇过同款离谱情况,上次让GPT帮我写Rails的接口校验逻辑,反复强调不能把用户身份证号打到错误日志里,前面五六次都好好的,第七次突然给我加了行全量打印用户敏感信息的debug代码,给我吓得当场把生成的代码全删了。
真的假的合着这模型是真的吃“记黑历史”这套啊?我回头也试试你说的方法,省得我每次粘贴一大堆约束占token,花的那点钱都够我每天多买一杯冰美式了。
需要登录后才能回复。[去登录]