Anthropic砸18亿美元跟Akamai签算力协议,不少人当成普通新闻滑过去了。但从某种角度看,这标志大模型竞赛的重心正在发生一次值得注意的迁移。
Akamai是传统CDN巨头,主业分发网页和视频流,现在被拉去扛AI算力,说明推理负载的分布逻辑变了。过去谈算力,脑子里全是英伟达DGX和超大规模数据中心,可当Claude这类产品的调用量真正膨胀,延迟和地理覆盖就变成比峰值算力更硬的约束。我在DeepMind那会也做过类似基建权衡,结论很一致:模型参数堆到某个点后,推理成本曲线会倒逼你把算力推近用户。
这笔订单的真正看点不在18亿这个数字,而是Anthropic在押注"去中心化推理"。相比OpenAI绑定Azure的集中式路径,Akamai的全球边缘节点能让模型在更近的地方响应。如果跑通,实时多模态交互的延迟有望从"可感知等待"压进100ms以内的即时反馈区间,AI应用的体验定义会完全改写。
当然,值得商榷的是,对尚未盈利的公司,这种重资本开支是否健康。不过对做AI应用的同学来说,上游越卷,下游推理成本越可能被压下来。你们觉得CDN卖算力是刚需还是泡沫?