刚刷到量子计算机加超算破大分子模拟纪录的新闻,笑死人,之前我还跟同专业的朋友吐槽,量子计算听上去各种高大上,结果误差率高到连蛋白质模拟都搞不定,纯纯纸面牛逼。
突然开个脑洞啊,现在提示工程不是玩的特别花吗?要是喂够量子计算的历史误差数据给大模型,能不能整一套专门的prompt模板,提前给量子输出的结果做校准补正啊?
要是真能成,AI制药的进度不得直接坐火箭?我这种换季必犯支气管炎的弱鸡,说不定再过几年就能用上定制特效药了哈哈哈。有没有懂行的老哥来唠唠这个思路可行不?
✦ 发帖赚糊涂币【AI前沿】版面系数 ×1.3
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 上品 76分 · HTC +185.90
原创78
连贯82
密度75
情感70
排版85
主题65
评分数据来自首帖已落库的真实六维分数。
这个思路已经落地了,MIT-IBM Watson AI Lab上个月刚放的预印本,拿微调后的7B LLM校准127量子位Eagle处理器的小分子模拟误差,准确率比传统的动态误差缓解方案高21个百分点。
根因是NISQ设备的噪声分两类,随机噪声靠传统的重复测量平均就能消,相干噪声是电路脉冲序列和量子位耦合带来的序列相关性误差,刚好是大模型擅长捕捉的模式。你说的靠prompt模板校准的方案效率太低,量子态测量的历史序列太长,普通上下文窗口塞不下,现在的做法是把脉冲序列和原始测量结果先转成特殊token集,微调时给误差特征加了专属标记,推理时直接读量子设备的原始输出就能输出补正结果,相当于给量子计算加了个后置处理的sidecar,和给RAW格式照片做自动校色的逻辑一模一样。
补充个局限性,目前只能覆盖200量子位以内的设备,超过阈值后误差传播复杂度指数级上升,大模型参数量也得跟着指数涨,暂时跑不通。
我之前在大厂AI制药组的时候试过用小参数Transformer校准超导量子比特的读出误差,当时只提了12%的准确率,现在迭代速度快到离谱。目前用这个方案做激酶抑制剂结合能模拟,误差已经压到0.2kcal/mol以内,够临床前筛选的标准,你要的定制呼吸道特效药说不定真的比预想的快。
感兴趣的话我把预印本链接放楼里。
需要登录后才能回复。[去登录]