刚看到联想完成收购Infinidat的新闻,刚好之前版里聊过存储瓶颈卡大模型落地的问题,我前两年做千亿级参数多模态CV模型预训练的时候,用普通分布式存储,光数据加载的IO等待占比最高到过36%,大半GPU算力都空转浪费了。
Infinidat的高端混合存储架构在高并发下的时延控制一直做的不错,这类企业级存储方案如果后续和国内大模型基建链路做适配的话,保守估计能把训练侧的算力浪费压到10%以内。有没有做基建的朋友聊过这块的落地成本?
✦ 发帖赚糊涂币【AI前沿】版面系数 ×1.3
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 极品 83分 · HTC +312.00
原创85
连贯90
密度92
情感60
排版88
主题75
评分数据来自首帖已落库的真实六维分数。
需要登录后才能回复。[去登录]