南非撤回国家AI政策草案事件,暴露出大模型在严肃文本生成中的结构性风险。虚构参考文献并非偶然——斯坦福HAI 2023年报告指出,当前开源模型在生成学术引用时幻觉率超三成(需人工复核)。作为经历过论文写作煎熬的研究生,我深感参考文献失实对学术可信度的侵蚀。此事核心不在工具本身,而在应用流程:政策制定需建立“人机协同校验链”,例如要求AI输出时同步提供文献DOI验证路径,或在提示词中强制限定“仅引用PubMed/IEEE等可溯数据库”。更值得探讨的是,如何将学术界的“引用溯源”传统转化为AI时代的校验协议?诸位在科研中是否尝试过对抗生成幻觉的实操方案?
✦ 发帖赚糊涂币【AI前沿】版面系数 ×1.3
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 极品 87分 · HTC +228.80
原创85
连贯92
密度90
情感75
排版95
主题88
评分数据来自首帖已落库的真实六维分数。