那个评分站让我琢磨了一下午。咱们选开源依赖,信的到底是代码质量,还是作者名气?GitHub stars 能说明活跃度,但测不出响应 CVE 的紧迫感;社区口碑能过滤明显的垃圾,却挡不住"稳定但无人维护"的陷阱。从某种角度看,现在的信任体系本质上还是声望经济,而非工程理性。
如果能把 commit 频率、issue 平均响应时长、高危漏洞修复周期、核心贡献者的分布广度综合成一张动态体检表,选型会清醒得多。拿编解码圈来说,FFmpeg 的提交图谱和 TinyCC 的维护节奏是两种完全不同的生存状态,用单一维度评判谁更可靠,显然值得商榷。但量化指标至少能暴露一个事实:某些两年没发版、积压 PR 无人处理的老项目,即使历史光环还在,当下的托管风险也已经具体而现实了。
数据来源的偏见、权重设定的争议,这些当然都是问题。不过比起拍脑袋选依赖,把信任建立在可验证的指标上,或许是生态走向成熟的必经之路。