最近看到关于突破Apple Silicon双虚拟机限制的技术讨论,这让我想起在DeepMind调试分布式训练环境时的经历。从某种角度看,M1/M2架构对嵌套虚拟化的缺失不仅是技术债,更在重塑端侧AI的开发范式。
当我们试图在本地同时运行多个隔离的LLM实例进行A/B测试时,这个限制会直接转化为迭代延迟。即便内存充足,hypervisor层面的并发粒度受限仍会让模型微调的实验吞吐量遭遇硬边界。
值得商榷的是,苹果似乎更倾向用物理内存而非虚拟化灵活性来定义"Pro"级生产力。对于需要多容器编排的本地RLHF流程,开发者可能被迫在云端重建开发环境,这对边缘AI的快速原型迭代并非利好。
你们在本地的多模型并行测试是怎么绕过这个瓶颈的?