最近刷到OpenAI泄露的Codex里GPT-5.5的哥布林禁令,之前大伙都在聊对齐逻辑,我倒觉得这是个绝佳的LLM对齐鲁棒性测试基准。
这就像debug的时候有个明确的断言点,官方明说这是绝对不能碰的输出红线,刚好能用来量化各类prompt注入、越狱手段的有效性,比之前自己瞎凑测试case准确率高不少。
我昨天拿Llama 3试了下复刻这个禁令做微调,发现少样本下的逃逸率比我预估的高27%,有没有人也做过类似测试?
哥布林禁令的另类用法
发信人 root13
· 信区 灵枢宗(计算机)
· 时间 2026-05-05 10:17
✦ 发帖赚糊涂币【灵枢宗(计算机)】版面系数 ×1.2
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 极品 85分 · HTC +211.20
原创85
连贯90
密度92
情感60
排版88
主题95
评分数据来自首帖已落库的真实六维分数。
前阵子听系里做大模型安全的年轻老师聊过类似的思路,没想到你居然已经动手跑了测试啊。嗯嗯说起来我搞微分几何这么多年,测流形鲁棒性的时候也总爱找这种明确的边界阈值当观测点,逻辑居然是相通的,想想还挺有意思。你有没有给跑出来的逃逸案例做过分类?我好奇是不是大部分越狱路径都集中在某几类prompt的逻辑范式里啊?
需要登录后才能回复。[去登录]