加入收藏 | 设为首页 | 会员中心 | 我要投稿 惠州站长网 (https://www.0752zz.com.cn/)- 办公协同、云通信、物联设备、操作系统、高性能计算!
当前位置: 首页 > 大数据 > 正文

人工智能模型中的3种偏见以及如何处理

发布时间:2021-06-10 14:00:39 所属栏目:大数据 来源:互联网
导读:自动化决策工具在组织的应用中正变得越来越普遍。然而,其背后的一些机器学习(ML)模型(从面部识别系统到在线广告)都清楚地表明在种族和性别方面存在偏见。随着机器学习模型的广泛采用,需要专业知识来确保人工智能更加公平。 机器学习模型应该消除偏见,而不
自动化决策工具在组织的应用中正变得越来越普遍。然而,其背后的一些机器学习(ML)模型(从面部识别系统到在线广告)都清楚地表明在种族和性别方面存在偏见。随着机器学习模型的广泛采用,需要专业知识来确保人工智能更加公平。
 
机器学习模型应该消除偏见,而不是加剧歧视。为了构建公平的人工智能模型,必须首先使用更好的方法来识别产生人工智能偏见的原因,因此必须了解人工智能模型如何学习其输入和输出之间的偏差关系。
 
研究人员已经确定了人工智能中具有的三种偏见:算法偏见、负面影响、低估。当受保护的特性和用于决策的信息之间存在统计的依赖性时,就会出现算法偏见。负面影响是指用于训练人工智能模型的数据中已经存在的偏差。当没有足够的数据使人工智能模型对人口的某些部分做出可靠的结论时,就会出现低估。
 
以下深入研究每一个问题:
 
1.算法偏见
 
算法上的偏见源于受保护的特性与其他因素之间的相关性。当发生这种情况时,不能仅通过从分析中删除受保护的特性来减少偏差,因为其相关性可能导致基于非保护因素的有偏见的决策。
 
例如,美国早期的预测性警务算法在进行预测时并不能直接获取种族的数据,这些模型严重依赖于与种族相关的地理数据(如邮政编码)。这样,对性别和种族等人口统计数据“盲目”的模型仍然可以通过与受保护属性统计相关的其他特征对这些信息进行判断。
 
美国消费者金融保护局致力于确保贷款机构遵守其公平贷款法规,该局发现了一些统计方法将地理和姓氏信息结合起来,对于种族和族裔代理的判断提供了更高的准确率。这个发现驳斥了一种普遍存在的误解,即如果算法不能访问受保护的数据,将自动减少偏差。这种被称为代理歧视的现象,一旦查明了根本原因,就可以缓解这种称为代理歧视的现象。也就是说,可以通过在创建代理功能的模型中定位中间计算,并将其替换为与受保护属性相关性较小的值来纠正违规行为。
 
与人们的直觉相反,在某些情况下,从模型训练中删除受保护特性的解决方案实际上会伤害到已经处于不利地位的群体。例如,在美国司法系统中,美国惩教机构和假释委员会使用风险因素清单对监禁和释放做出公正的决定。当人类和人工智能模型处理具有诸如性别、年龄、当前指控以及先前成人和青少年犯罪数量等基本信息时,人类和人工智能模型的表现是相当的。
 
然而,通过给人类和人工智能模型10个额外的与教育和物质使用相关的风险因素,研究人员发现机器学习模型更准确,更不容易产生偏见。这强调了需要了解人工智能模型偏差的根本原因,而不是盲目地采用补救策略。
 
2.负面影响
 
人工智能算法的偏见也有可能直接来自其训练数据中存在的类似偏差。例如,受过训练以执行语言翻译任务的机器学习模型倾向于将女性名字与“父母”和“婚礼”等属性相关联,而男性名字与诸如“专业”和“薪酬”之类的单词之间的关联性更强。该模型不太可能会自己建立关联。与其相反,它是在反映这些性别取向的文本素材库上进行训练的。这是产生负面影响的一个例子。
 
在自然语言处理中,性别偏见是一个令人困扰但经过充分研究的问题:对原因的清晰了解提供了纠正它的途径。在英语这样的名词和形容词倾向于性别的语言中,研究人员发现了强制词嵌入以保持性别中立的方法。而在其他语言具有固有性别词语的情况下,可以通过引入打破性别和中性词之间因果关系的示例来增强语言素材库,以防止出现偏见。

(编辑:惠州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读