Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

Josh Feast作者王琦校对黄继彦编辑王子龙翻译

改善AI性别偏见的4种方法

本文阐述导致AI偏见的原因并提出应用的解决方案。

图片来源:哈佛商业评论工作人员 / UNSPLASH

任何对AI偏见的审查都需要意识到一个事实:这些偏见主要源于人类固有的偏见。我们创建、训练的模型和系统就是我们人类自己的真实写照。
 
因此AI从人类那里学习到了性别偏见也就不足为奇了。例如,亚马逊的Alexa和苹果的Siri等常见AI系统的核心—自然语言处理(natural language processing, NLP)就存在性别偏见,而这并不是孤例。此前还发生了几起明显带有性别偏见色彩的案例,包括能够识别性别的计算机视觉系统,其在识别女性时报告的错误率更高,尤其是对于那些肤色较深的女性。

为了开发出更公平的技术,整个行业的研究人员和机器学习团队必须共同努力来纠正这种不平衡。幸运的是,我们开始看到有新的研究致力于解决这些问题。
 
其中需要特别提到的是目前正在进行的关于词嵌入(Word-embeddings)的偏见研究,词嵌入将词转换为数字表示,然后在自然语言处理模型中用作输入。词嵌入将词表示为序列或数字向量,如果两个词意思相近,它们的映射(associated embedding)在数学意义上也是相近的。词嵌入通过评估单词出现的上下文来编码信息。例如,AI能够客观地把“女王”一词填充到“男人是国王,女人是X”这句话中的X处。但当AI填写“父亲是医生,母亲是护士”这样的句子时,就会引起潜在的问题。这句话中固有的性别偏见反映了我们社会中对妇女的过时看法,这种看法既没有事实根据,也不平等。
 
很少有研究对情感相关的演讲中的性别偏见进行评估,而情感AI在未来的工作、营销以及几乎所有你能想到的行业中开始扮演更重要的角色。在人类社会中,当一个人对某一类人情感的误解多于另一类时,偏见就会产生。例如,错误地认为某一类人比另一类人更容易生气。目前的机器也有同样的偏见,它们将与情感相关的信息错误地分类。要理解为什么会这样,以及我们如何解决这个问题,先去了解造成AI偏见的原因就显得重要了。
 
什么导致了AI偏见?
 
机器学习的背景下,偏见可能意味着某些人口统计类别的误差更大。因为找不到这种偏见的根源,所以在开发和训练机器学习模型时,研究人员必须考虑许多变量,包括以下因素:
  • 不完整的或偏斜的训练数据集:当训练数据中缺少某种人口统计类别时,就会出现这种情况。在那些有缺失人口统计类别的新数据上使用这些数据训练的模型时,则不能正确地衡量。例如,如果女性演讲者只占你训练数据的10%,那么当你将一个训练过的机器学习模型应用于女性时,很可能会产生更高程度的误差;

  • 训练模型所用的标签:绝大多数商业AI系统使用有监督机器学习,这意味着训练数据是被打上标签的,标签用来训练模型如何作出反应。通常情况下,这些标签是人类想出的,考虑到人们经常表现出偏见(既有有意识的,也有无意识的),这些偏见会无意地编码到由此产生的机器学习模型中。考虑到机器学习模型被训练出来用于估计这些标签,这种对特定性别不公平的分类将被编码到模型,这会导致偏见;

  • 特征和建模技术:机器学习模型的输入值或者实际的模型训练过程中都可能因为测量而产生偏见。例如,几十年来,语音合成,即把文本转换为语音的技术(例如:斯蒂芬·霍金的声音)和自动语音识别,即把语音转换为文本的技术(例如:CC字幕)都有该情况发生。与男性相比,女性演讲者的表现不佳,这是由于对演讲者的分析和建模对于声带较长、音调较低、个子较高的人来说更准确。因此,语音技术对于具有这些特征的演讲者(通常是男性)来说是最准确的,而对于那些音调较高的演讲者(通常是女性)来说就不那么准确了。

机器学习团队避免性别偏见的四个最佳解决方案
 
和生活中的许多事情一样,AI偏见的原因和解决方案并不是非黑即白的。“公平”本身甚至也必须通过量化来减轻偏见所带来的不必要影响。对于那些想要利用AI的力量,但又担心产生偏见的管理者来说,落实下面的方法对于你的机器学习团队很重要。
  • 确保训练样本的多样性(例如,在训练数据中使用与男性差不多数量的女性音频样本)。

  • 确保给音频打标签的人们有着多元化的背景。

  • 针对不同人口统计类别,鼓励机器学习团队分别评估模型的准确程度。并且当某个类别被不公平地对待时要能识别得出来。

  • 通过收集更多与敏感群体相关的训练数据来解决不公平的问题。在此基础上,可以应用新的机器学习去除偏见技术,该技术不仅惩罚主要变量的识别错误,还额外惩罚造成不公平的错误。 

虽然研究这些原因和解决办法是非常重要的第一步,但仍有许多悬而未决的问题需要回答。除了训练机器学习模型之外,业界还需要开发更全面的方法以解答造成上述三个主要偏见的原因。此外,为了应对日益增加的多样性,未来的研究应该考虑性别变量的更广泛表示,如跨性别者、非二元性别等,以此来增强我们对此的理解。
 
我们有义务创造对每个人都有效和公平的技术。我相信,如果我们能够共同解决这些问题,AI的收益将超过风险。这取决于该领域的所有从业者和领袖合作、研究和开发解决方案,以减少AI对任何人的偏见。

原文标题:

4 Ways to Address Gender Bias in AI

原文链接:

https://hbr.org/2019/11/4-ways-to-address-gender-bias-in-ai

THU数据派
THU数据派

THU数据派"基于清华,放眼世界",以扎实的理工功底闯荡“数据江湖”。发布全球大数据资讯,定期组织线下活动,分享前沿产业动态。了解清华大数据,敬请关注姐妹号“数据派THU”。

产业AI偏见机器学习
1
相关数据
Amazon机构

亚马逊(英语:Amazon.com Inc.,NASDAQ:AMZN)是一家总部位于美国西雅图的跨国电子商务企业,业务起始于线上书店,不久之后商品走向多元化。目前是全球最大的互联网线上零售商之一,也是美国《财富》杂志2016年评选的全球最大500家公司的排行榜中的第44名。

https://www.amazon.com/
相关技术
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

词嵌入技术

词嵌入是自然语言处理(NLP)中语言模型与表征学习技术的统称。概念上而言,它是指把一个维数为所有词的数量的高维空间嵌入到一个维数低得多的连续向量空间中,每个单词或词组被映射为实数域上的向量。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

语音合成技术

语音合成是通过机械的、电子的方法产生人造语音的技术。TTS技术(又称文语转换技术)隶属于语音合成,它是将计算机自己产生的、或外部输入的文字信息转变为可以听得懂的、流利的汉语口语输出的技术。

推荐文章
暂无评论
暂无评论~