模型偏置是什么意思?

时间:01-19人气:12作者:未了情

模型偏置是指人工智能在学习过程中产生的系统性错误。训练数据如果只包含某些群体,模型就会对其他群体判断不准。比如人脸识别系统如果主要用白人面孔训练,识别亚洲人时就会出错。数据中的刻板印象也会被模型学会,比如认为护士都是女性。模型偏置会让结果不公平,甚至歧视某些人群。

偏置的来源

数据选择不均衡是主因,网络图片中穿白大褂的男性医生更多,模型就会误以为医生都是男的。标注人员的主观看法也会带入数据,比如有人把深色皮肤的照片错误分类。算法本身的设计缺陷也会放大偏置,比如简单粗暴地把某些特征和特定人群挂钩。解决偏置需要多样化数据,反复测试不同群体的表现。

注意:本站部分文字内容、图片由网友投稿,如侵权请联系删除,联系邮箱:happy56812@qq.com

相关文章
本类推荐
本类排行