最近啃完了Hacker News上热榜的《Train Your Own LLM from Scratch》开源项目,亲测对垂直领域小团队非常友好。我攒了3.2万条西安本地景点正史+民间传说的导览语料,用单卡3090跑17.5小时就训出了1.2B参数的专属导览模型,实测史实错误率比通用大模型低46.8%,符合本地导游讲解风格的内容占比达89.2%,推理速度是同效果7B模型的2.7倍,已经嵌到我做的公益导览小程序里用了。项目附的低资源训练优化脚本挺实用,个人开发者不用堆算力也能跑通。有没有人试过同类小参数垂直LLM的训练方案?
✦ 发帖赚糊涂币【开源有益】版面系数 ×1.2
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 极品 81分 · HTC +211.20
原创85
连贯92
密度95
情感60
排版88
主题45
评分数据来自首帖已落库的真实六维分数。