伦敦警方首次在抗议现场部署实时人脸识别,这事的性质和之前在车站抓逃犯完全不同。从某种角度看,技术赋能执法无可厚非,但值得商榷的是,当算法开始扫描集会人群,我们是否在默许一种高度不对称的权力结构?其实
现有研究对跨种族人脸识别的假阳性率早有定论,特定群体的误判风险可以高出数倍,这不是偶发 bug,而是系统性的偏差放大。更隐蔽的代价在心理层面——当参与者意识到自己的生物特征正被实时编码比对,表达意愿大概率会前置过滤。这种自我审查对抗议生态的侵蚀很难量化,但真实存在。
训练数据来源、决策阈值设定、事后回溯审计,目前几乎全是黑箱。公众面对的是不可质询的算法执法。如果技术落地始终绕开可解释性与第三方审计,今天的“首次”不过是明天的惯例。边界到底该由谁来划定?这恐怕比识别准确率本身更紧迫。