当议论机器学习中的公平公正时,我们该议论些什么?
作者头像
  • 天龙
  • 2020-03-02 16:30:30 10

机器学习中的公平公正问题探讨

随着人工智能系统的广泛应用,AI已成为辅助人们决策的重要工具,例如通过推荐系统算法进行电影推荐、商品推荐等,通过预测和分析系统处理贷款申请、约会和雇佣等高风险决策。然而,这些系统也可能带有偏见,影响决策的公正性。例如,美国法院使用的一款名为「选择性制裁罪犯管理档案」(Correctional Offender Management Profiling for Alternative Sanctions, COMPAS) 的人工智能软件,用于预测再犯罪的风险,辅助法官作出释放或监禁的决定。研究发现,该软件对非洲裔美国人的判决存在偏见,相较于白人罪犯,非洲裔美国人更容易被判定为高风险,从而导致更高的监禁率。

数据集中的偏见

偏见数据集通常是影响机器学习公平性的重要因素之一。大多数机器学习模型是通过在大量标注数据集上训练得到的。例如,在自然语言处理中,算法通常在包含数十亿单词的语料库上训练。研究人员通常通过抓取网页(如谷歌图片和谷歌新闻)、使用特定关键词搜索或收集来自维基百科等易于获取的信息来构建这些数据集。随后,由研究人员或通过亚马逊机械土耳其人(Amazon Mechanical Turk)等众包平台对数据集进行标注和分类。

在医学领域,由于医疗数据的生成和标注成本较高,机器学习尤其容易受到偏见数据集的影响。例如,一项用于识别皮肤癌的研究使用了深度学习算法,训练数据集包含129,450张图像,其中60%来自谷歌图片。然而,这些图像中只有不到5%是深色皮肤个体的图像,且该算法并未在深色皮肤人群中进行测试。因此,该算法在不同人群中的表现可能存在显著差异。

影响机器学习公平性的因素

除了数据集偏见外,机器学习算法本身也是影响公平性的重要因素。典型的机器学习算法总是力求在训练数据集上达到最大的预测精度。如果某个特定群体在训练数据集中出现的频率较高,算法会倾向于针对这些群体进行优化,从而提高整体准确度。然而,在测试阶段,测试集通常是原始训练数据集的随机子样本,因此可能包含同样的偏见。

保障机器学习公平性的方法

为了确保机器学习的公平性,研究者认为主要有三种途径:

  1. 提高数据质量:通过广泛收集不同来源的数据,并使用标准化的元数据系统地标注训练数据集的内容,以确保数据的质量。
  2. 改进算法本身:通过引入约束条件,使机器学习算法在不同的子群体和相似个体之间实现公平的功能;改变学习算法,减少对敏感属性(如种族、性别、收入等)的依赖。
  3. 利用机器学习进行审计:开发专门的算法来识别和量化数据和算法中的偏见,即进行人工智能审计。

讨论具体案例

本文重点讨论了机器学习中的公平性问题,并选择了ICML 2019年发表的三篇文章进行深入分析,分别涉及图嵌入、回归和自然语言处理中的语言模型。

1. Compositional Fairness Constraints for Graph Embeddings

Facebook在ICML 2019年发表的一篇文章介绍了如何解决现有图嵌入算法在公平性约束方面的不足。文章指出,现有的图嵌入算法无法处理公平性约束,例如确保所学习的表示与某些属性(如年龄或性别)无关。为此,该研究引入了一种对抗框架,以对图嵌入进行公平性约束。

主要内容

  • 背景:学习图中节点的低维嵌入是目前最先进的预测和推荐系统方法。然而,在实际应用中,特别是涉及到社交图的应用中,需要有效控制学习到的节点嵌入中包含的信息。例如,推荐系统应确保推荐结果不受用户的种族或性别影响。
  • 方法:通过引入对抗框架,确保学习到的嵌入与敏感属性(如年龄或性别)无关。首先训练一组“过滤器”,以防止对抗式鉴别者将敏感信息与过滤后的嵌入信息分类。然后,将过滤器以不同的方式组合在一起,灵活生成对任何敏感属性子集不变的嵌入。
  • 实验:在三个数据库(Freebase15k-237、MovieLens-1M、Reddit)上进行实验,评估了所提出方法的效果。

2. Fair Regression: Quantitative Definitions and Reduction-Based Algorithms

本文提出了一个适用于回归任务的公平算法,旨在确保预测结果在不同群体之间的公平性。该算法通过引入统计奇偶性和有界群体损失来实现公平性目标。

主要内容

  • 背景:随着机器学习应用于更多关键领域,如教育、医疗、刑事司法和贷款等,如何确保算法公平对待不同群体成为重要议题。目前的公平算法主要适用于离线和小规模决策任务,如招聘、学校录取和贷款审批。然而,许多实际问题需要评估连续性指标,如工作成功率、大学平均绩点和贷款违约风险。
  • 方法:提出了两种公平性定义:统计奇偶性(Statistical Parity, SP)和有界群体损失(Bounded Group Loss, BGL)。通过在约束条件下最小化实值预测的预期损失来实现公平回归。
  • 实验:在成人库、法学院和社区犯罪数据集上进行了实验,证明了所提算法的有效性。

3. Identifying and Reducing Gender Bias in Word-Level Language Models

本文探讨了如何识别和减少训练数据集中的性别偏见,并评估其对语言模型性能的影响。

主要内容

  • 背景:语言模型在自然语言处理任务中广泛应用,但易受性别偏见的影响。例如,在屏幕键盘中的单词预测任务中,性别偏见可能导致预测结果偏向某一性别。
  • 方法:通过定性和定量分析训练数据集中的性别偏见,训练LSTM单词级语言模型,并测量生成文本的偏见程度。采用正则化方法减少模型中嵌入层学习到的性别偏见。
  • 实验:在Penn Treebank (PTB)、WikiText-2和CNN/Daily Mail数据集上进行了实验,验证了所提方法的有效性。

总结

本文综述了机器学习中的公平性问题,并结合ICML 2019年发表的三篇文章进行了详细分析。这些研究提供了多种方法来减少算法中的偏见,包括数据质量提升、算法改进和正则化技术。尽管已有进展,但公平性问题仍然是机器学习领域面临的挑战,未来仍需不断探索和改进。

    本文来源:图灵汇
责任编辑: : 天龙
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
议论正时公平机器学习我们什么
    下一篇