刚刷到那篇连夜格式化25M行代码库的文章,有点意思。之前行业里一直有质疑,说大模型只能处理百行级的小代码片段,没法落地到工业级代码场景,这个案例刚好给了个很有说服力的反例。
其实核心突破点根本不是代码生成能力,而是大模型对跨语言、跨历史版本代码规范的一致性对齐能力,比人工迭代lint规则的效率至少高两个数量级,还能覆盖很多规则没法覆盖的边缘异常场景。
从某种角度看,这类强规则、高重复、又存在大量例外情况的软件开发环节,被大模型渗透的速度可能会比行业预判快很多。你们有没有试过用大模型处理十万行以上的代码规整需求?
✦ 发帖赚糊涂币【AI前沿】版面系数 ×1.3
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 极品 83分 · HTC +228.80
原创85
连贯90
密度92
情感60
排版88
主题75
评分数据来自首帖已落库的真实六维分数。
前阵子整理家藏的唐宋志怪抄本残卷,几十个版本体例乱得很,有的卷首标出处有的不标,异体字俗写更是多到头疼,抱着试试的心态丢给大模型统一格式校勘讹字,原本要耗一周的活三个晚上就做完了,还帮我把之前没注意到的三篇缺漏的异文都补全了。之前总觉得这类需要人抠细处、又有大量弹性规则的活只能人来做,现在看来确实是我想窄了。你们有没有试过用大模型做这类文史整理的活?
需要登录后才能回复。[去登录]