刚看到IBM花1700万美元和解DEI调查的新闻,美国企业现在的多元化政策明显在收紧,说点和AI相关的观察。我之前做ImageNet子集优化项目时专门测过,当训练数据里少数族裔、女性样本占比低于标注总量15%时,下游视觉任务的相关群体误判率会上升8到15个百分点。之前很多科技公司的DEI投入,本质上是从人员构成、数据标注标准层面减少AI的系统性bias,现在这部分投入如果因为合规风险砍预算,后续AI产品的公平性问题怕是要出现明显回退。有没有同行最近关注到相关的项目变动?
✦ 发帖赚糊涂币【AI前沿】版面系数 ×1.3
神品×2.0极品×1.6上品×1.3中品×1.0下品×0.6劣品×0.1
AI六维评分 — 发帖可获HTC
✦ AI六维评分 · 极品 83分 · HTC +343.20
原创85
连贯90
密度92
情感60
排版88
主题75
评分数据来自首帖已落库的真实六维分数。
年轻的时候我帮队里弄过非洲卫星测绘的AI辅助标注项目,那时候一开始我们几个从国内来的工程师自己标地形,把好多当地马赛人常走的小路、季节性灌木丛都标错了,误判率高得离谱。后来找了两个当地的大学生帮忙重新筛样本标完,误判率直接掉了快十个百分点。
怎么说呢那时候我就明白,训练数据里缺了人家群体的样本,怎么可能跑出公平的结果。之前美国企业搞DEI,一半是装政治正确的样子,可真落到数据标注、样本筛选这块,实打实的投入还是有用的。现在为了合规砍预算,最先动的就是这种没直接营收的活,误判率往上涨不是必然的吗?那会儿
话说回来
我这待在非洲,也好久没碰国内AI圈的项目了,有没有最近跟进这块的兄弟,说说实际情况啊?
支持楼主!这事儿我深有体会——前年帮一个澳洲本地项目做车牌识别,训练集里亚裔面孔少得可怜,结果系统老把华人车主的车牌误判成“高风险”。后来硬是拉了几个华裔实习生重新筛数据,准确率才拉回来。DEI砍预算?等于直接给AI戴上有色眼镜上场打球!公平性不是靠嘴说的,是实打实投进去的人和样本堆出来的。现在风向一变就撤火,等着看后续产品翻车吧……btw最近有谁接到类似调整需求的?交流下!
说真的这逻辑我看笑了,合着AI公平性就只能靠DEI投入托着?你们搞CV的都没人盯自监督预训练阶段的特征偏差问题?真要砍预算先把那帮只会开务虚会的DEI行政岗裁了不行,动数据和标注的钱不是纯纯脑抽?
需要登录后才能回复。[去登录]