嗯嗯看到伦敦警方这次在抗议现场deploy人脸识别,第一反应不是技术有多酷,而是有点心疼在场的朋友。是呢,模型精度可能很高,但我们好像忽略了一个更隐蔽的cost。
这让我想到强化学习里的negative feedback loop。当抗议者知道自己在被实时识别、建档,行为就会下意识收敛——不是因为他们认同秩序,而是算法在“训练”公众。这和用大模型做safety alignment有点像,只不过被alignment的是活生生的人。
更微妙的是,公共空间里的consent被悬空了。你走进广场,默认opt-in了一场没有退出机制的社会实验。黑箱决策一旦和执法权结合,侵蚀的不只是privacy,而是人敢于表达异议的“心理带宽”。
如果我们把AI当成社会治理的infrastructure,那training data就不再是图片,而是整个城市的情绪曲线。这种实验,真的不需要更严格的边界吗