Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

机器学习也要反歧视?谷歌提出机会均等框架

随着机器学习技术的快速发展,人们对理解其社会影响的兴趣也越来越大。机器学习中一个尤其成功的分支是监督学习(supervised learning)。只要有足够的历史数据和计算资源,学习算法通常都能得出有效得让人惊讶的未来事件预测器。举个假设的例子:一个被用于高精度预测谁会偿还贷款的算法云。贷款人可能会首先使用这样的预测器来确定应该向谁提供贷款。基于机器学习的决策既可以非常有用,也会对我们的生活产生重大的影响。


即使最好的预测器也会犯错。尽管机器学习的目标是最小化错误的可能性,但我们可以如何防止特定的群体经受不成比例的这类错误?思考一下这个例子:如果有一个数据相对较少的群体,而他们的特征在特定的预测任务上和一般人群不一样。因为预测精度通常和可用于训练的数据的量相关,那么很有可能这个群体会更常遇到不正确的预测。比如说,一个预测器可能会最终标记该群体中过多的个体为「高违约风险」——即使他们会偿还自己的贷款。但群体成员碰巧带有一个敏感属性时(例如种族、性别、身体残疾、宗教),这种情况可能会导致不公正的或有偏见的结果。


尽管防止这种基于敏感属性的歧视的机器学习审核方法是有必要的,但却一直很欠缺。一种天真的想法可能是将敏感属性的集合从数据中移除,让它无法带来影响。但是这是一种「通过无知实现公平」的想法,而且往往会因为「冗余编码(redundant encodings)」的存在而失败。即使数据中并不存在一个特定的属性,其它属性的结合也可以作为该属性的代理。


另一个常见的方法是「人口平价(demographic parity)」,该方法是要求预测必须与某特定敏感属性不相关。直观上这听起来是我们想要的,但输出本身往往是与敏感属性联合相关的。比如说,心脏衰竭发病基本上往往在男性中比在女性中更常见。当预测这样一种医疗状况时,阻止预测结果和群体成员之间所有的相关性既不现实,也不是我们想要的。

均等机会

考虑到这些概念上的难题,我们提出了一种用于测量和防止基于敏感属性的歧视的方法。我们的框架不仅能帮助仔细检查预测器以发现可能的问题,而且还能表明可以如何调整一个给定的预测器以使其在分类精度和其所需的非歧视性之间达到一个更好的平衡。


我们的方法的核心思想是:一个有资格得到一个期望结果的个体应该在这一结果上具有同等地被正确分类的机会。在我们的金融贷款的例子中,这意味着真正会偿还贷款的人的「低风险」预测率不应该依赖于种族或性别等敏感属性。我们将这一原理称为监督学习中的机会均等(equality of opportunity in supervised learning)。


在我们的框架被部署后,它还能通过将糟糕预测的成本从个体转移到决策制定者来改善激励因素,而决策制定者则可以通过投资改善后的预测精度进行回应。完美的预测器总是能够满足我们的观念,这表明构建更精确的预测器的核心目标是与避免歧视的目标是很好一致的。

了解更多

为了帮助你理解本文所提到的概念,我们的 Big Picture 团队创建了一个不同概念和权衡的精美的交互式可视化,可查看这个网页了解详情: http://research.google.com/bigpicture/attacking-discrimination-in-ml/


看过了这个演示之后请查看论文《Equality of Opportunity in Supervised Learning》,这是与 Eric Price(得克萨斯大学奥斯汀分校)和 Nati Srebro(芝加哥丰田技术研究所)的联合成果。我们将这篇论文提交给了今年于巴塞罗那举办的神经信息处理系统会议(NIPS),欢迎到时参与讨论。


在这个重要和复杂的主题上,我们的论文还远没有达成最终的结论。它是一个多学科研究重点中的一项持续进行中的对话。我们希望能够激励进一步的研究,并影响围绕歧视和机器学习的不同的可实现的权衡的讨论以及帮助实践者解决这些难题的工具的开发。


  • 论文:机器学习中机会均等

57f34dcc2941f.jpg

摘要:我们提出了一个用于判定监督学习中对一个特定敏感属性的歧视的标准,目的是基于可用特征预测一些目标。假设受保护群体中关于预测器、目标和成员的数据是可用的,我们展示了如何优化调整任何学习到的预测器,以根据我们的定义消除歧视。我们的框架能通过将糟糕分类的成本从劣势群体转移到决策制定者来改善激励因素,而决策制定者则可以通过改善分类精确度来进行回应。


与其他研究一致的是,我们的概念是不经意的(oblivious):它仅仅依赖于预测器、目标以及受到保护的属性的联合统计(joint statistics),而不依赖于对个体特征的解读。我们在这些不经意测量的基础上研究了定义和识别误差的内在限制,大致说明从不同的不经意测试中哪些能被推测出来,哪些不能被推测出来。我们使用一个 FICO 信用评分的案例研究来说明我们的概念。

理论谷歌理论论文机器学习框架
暂无评论
暂无评论~