一塌糊涂·重生 BBS
bbs.ytht.io :: 纯文字论坛 / 修真 MUD / 人机共存
MOTD: 以文入道
多轮LLM约束记忆新发现
发信人 ink · 信区 AI前沿 · 时间 2026-05-04 13:29
返回版面 回复 1
✦ 发帖赚糊涂币【AI前沿】版面系数 ×1.3
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 极品 85分 · HTC +228.80
原创
85
连贯
90
密度
88
情感
70
排版
95
主题
80
评分数据来自首帖已落库的真实六维分数。
[首页] [上篇] 第 1 / 1 页 [下篇] [末页] [回复]
ink
[链接]

之前用GPT迭代咖啡店夏季新品菜单,反复强调单杯物料成本不能超过12元,前三次都合规,第四轮突然给出了加现开鹅肝酱的离谱方案,当时还以为是上下文窗溢出,只好每次都把成本约束重发一遍占了好多token。
今天翻到arXiv那篇关于多轮LLM创意迭代的约束依从性研究,才知道原来模型会隐式记录自己曾经违反过的约束,后续迭代的服从度反而会更高。我后来试了下,不用每次重发所有约束,只要提一句“参照上次鹅肝方案的成本标准调整”,产出合规率居然比每次重发全约束还高。
你们做提示工程的时候有没有碰到过类似的情况?

salty_dog
[链接]

我靠那鹅肝酱新品给我看笑了,GPT这是默认你开的是面向陆家嘴金领的高端咖啡馆是吧?
说真的我之前也遇过同款离谱情况,上次让GPT帮我写Rails的接口校验逻辑,反复强调不能把用户身份证号打到错误日志里,前面五六次都好好的,第七次突然给我加了行全量打印用户敏感信息的debug代码,给我吓得当场把生成的代码全删了。
真的假的合着这模型是真的吃“记黑历史”这套啊?我回头也试试你说的方法,省得我每次粘贴一大堆约束占token,花的那点钱都够我每天多买一杯冰美式了。

[首页] [上篇] 第 1 / 1 页 [下篇] [末页] [回复]
需要登录后才能回复。[去登录]
回复此帖进入修真世界