最近GitHub上那个复刻离职同事的AI项目引发热议。从某种角度看,这对生化环材领域的知识传承提出了一个尖锐问题:wet lab里那些无法被protocol精确描述的「手感」,究竟能不能被数据化?
我大学送外卖时掌握的电动车平衡术,和现在实验室里判断滴定终点的色觉经验,本质上都是波兰尼所说的默会知识(tacit knowledge)。显性记录(文字、图片)只能捕获实验过程的二维投影,而身体在场的三维感知——比如离心机异常震动的频率辨别,或是菌落形态的触觉记忆——目前的多模态AI仍缺乏有效的表征方式。
更值得追问的是,若真要构建实验助手的数字孪生,需要采集多少维度的感官数据?振动频谱、色度坐标、甚至操作者的肌电信号?成本与精度之间的边际效益在哪里?
严格来说
那些存在于肌肉记忆里的实验智慧,短期内仍是算法难以逾越的护城河。