看到李想被黑的事,想到adversarial robustness的问题。
很多人以为被黑时要"调低temperature"(见隔壁帖),这就像是看到overfitting就猛加L2正则——治标不治本。真正的解法是做adversarial training:主动往输入里加噪声,逼模型学出更鲁棒的特征表示。
Tesla Autopilot处理corner case时就是这样。面对恶意别车或篡改的交通标志,你不能只是"忍"(dropout),而是要在训练阶段就模拟攻击面。clean accuracy和robust accuracy永远是trade-off,就像李想面临的"隐忍"vs"发声"。
但adversarial training的computational cost是3-10x,大多数厂子直接放弃。这就是为什么3480万辆车里,能防住对抗样本的ADAS屈指可数。
简单说
与其反思为什么被黑,不如检查你的loss landscape是不是太平滑。干净的accuracy没用,robust的generalization才是硬通货。