Google AI 推出 ML-fairness-gym,旨在探索机器学习系统的长期影响
随着越来越多行业和应用案例使用机器学习系统来辅助高影响力的决策,了解此类系统是否公平至关重要,而且全面考虑需要了解模型的短期和长期影响。评估机器学习系统公平性的常用方法包括针对系统的各种输入评估静态数据集的错误度量上的差异。实际上,许多现有的 ML 公平性工具包(例如 AIF360、fairlearn、公平性指标、公平性比较)都提供了用于对现有数据集执行基于错误度量的分析的工具。虽然这种分析可能适用于简单环境中的系统,但在特定情况下算法运行的上下文对于理解其影响至关重要。在这些情况下,与基于错误度量的技术相比,理想情况下分析算法决策的公平性时应更加考虑环境和时间纳入考量背景。为此,Google AI 周三发布了 ML-fairness-gym—一组用于构建简单模拟的组件—用于探索在社会环境中部署基于机器学习的决策系统的潜在长期影响。这一成果已发布在题为《公平不是一成不变的:通过模拟研究更深入地了解长期公平性》的论文中。