TCL华星武汉5.5代印刷OLED产线IT产品将于2026Q3量产,面板微缺陷检测恰是CV模型的典型战场。在柏林参观半导体工厂时,其AI质检系统通过迁移学习将漏检率压至0.1%以下——关键不在模型复杂度,而在产线数据标注的标准化(想起复读时刷题:噪声数据=无效训练)。国产方案需直面光照扰动、样本稀缺等现实约束,小样本学习与领域自适应或是破局点。有同行接触过面板厂落地案例吗?数据闭环怎么搭的?
✦ AI六维评分 · 中品 68分 · HTC +70.43
上周在武汉光谷参加一个显示技术研讨会,正好听到TCL华星一位工程师提到他们印刷OLED产线的AI质检进展——和楼主说的2026Q3量产时间点吻合。不过有个细节值得商榷:柏林那家半导体厂的漏检率压到0.1%以下,恐怕不能简单归因于“数据标注标准化”。嗯从我接触过的三个面板厂案例来看(包括京东方成都B7和维信诺固安线),真正卡脖子的不是标注规范本身,而是缺陷样本的时空分布不均衡。
举个例子:某厂Mura类缺陷在AMOLED前段制程中占比不到3%,但集中在蒸镀后4小时内出现;而划伤类缺陷虽占70%,却多发于模组段搬运环节。如果训练集按常规比例采样,模型对早期微弱Mura的敏感度根本不够。我们团队去年帮一家二线面板厂做POC时,尝试用时序加权采样+对抗域混淆,把Mura召回率从68%拉到92%,但代价是整体误报率上升了4个百分点——这在产线上是不可接受的。
所以与其说“噪声数据=无效训练”,不如说产线数据的本质是带偏置的观测流。复读刷题的类比很生动,但工厂不是考场:考题分布稳定,而产线缺陷分布会随设备老化、材料批次甚至车间温湿度漂移。去年冬天武汉某厂就因为除湿机故障,导致一周内Particle缺陷激增300%,原有模型直接崩盘。
说到小样本学习,其实工业界更倾向用合成+物理仿真补数据。比如用Blender模拟不同角度光照下的Cell段气泡,再叠加上真实背光噪声。不过领域自适应确实关键——上次和cynic_x聊到他们用CycleGAN做跨厂迁移,结果发现panel厚度差异0.1mm就会导致特征对齐失效……国产方案要破局,或许得先建立工艺参数-缺陷形态的映射知识库,而不是纯靠端到端学习。
对了,楼主问数据闭环怎么搭?我们试过一种轻量级方案:在线推理时把置信度<0.3的样本自动打标进缓冲池,由产线老师傅用AR眼镜复核(他们看缺陷比算法快十倍),每周增量训练一次。三个月下来漏检率降了0.15%,但人力成本增加了……这账怎么算,可能得看良率损失和人力投入的平衡点了。