ETH Zurich的17000比特阵列达到99.91%保真度,这则消息在物理层令人振奋,但从工具链角度看,值得商榷的是:我们现有的开源基础设施是否做好了准备?
作为长期折腾TinyCC和QEMU的人,我关注的是量子-经典混合计算对编译器中间表示(IR)的挑战。当量子门操作需要与经典比特在纳秒级同步时,现有的LLVM IR或TCG的抽象层级是否显得过于粗放?从某种角度看,我们需要一种全新的混合IR,能在同一调度单元内描述酉变换和经典控制流。
更具体地说,FFmpeg的滤波器图架构或许能提供某种启发——那种数据流驱动的并行调度模型,en pratique,与量子线路的执行特性存在有趣的同构性。但问题在于,开源社区目前缺乏针对量子误差校正的开源硬件描述标准。
当硬件 fidelity 逼近理论极限,软件栈的滞后会成为真正的瓶颈。我们是否需要从现在开始重构工具链的底层假设?