Nature:机器学习的偏见
作者头像
  • 科技漫谈伦
  • 2018-10-29 16:06:37 1

随着机器学习技术的广泛应用,科学家们正在努力防止算法带来的不公平现象。在人工智能迅速普及的今天,科学家们首先需要理解机器学习的机制,以便建立起对人工智能的信任。

随着人工智能技术的发展,计算机的决策开始逐渐被人们接受,但这些决策有时会对人们的生活产生重大影响。例如,机器学习算法在预测虐待儿童家庭和犯罪行为等方面发挥了重要作用。尽管这些技术有助于改善儿童的安全状况,但它们也可能带来潜在的不公平性。例如,2015年,Rhema Vaithianathan在宾夕法尼亚州匹兹堡展示了软件如何帮助改善儿童的危险处境。然而,算法预测分析技术也引发了人们对偏见和歧视的关注。

这些算法工具的透明度和公正性备受质疑。2016年,有报道称用于预测犯罪风险的系统对黑人被告存在偏见。由于这些算法大多由私营公司开发并严格保密,导致公众对算法的公平性和准确性产生了质疑。

面对这一挑战,政府也开始采取措施提高算法的透明度和公平性。2017年,美国纽约市议会通过了《算法问责法案》,旨在解决算法歧视问题。法案要求纽约市政府监督市政机构使用的自动决策算法的公平性和透明度,并推动开源这些算法,以便公众了解其运作过程。

与此同时,法国和英国政府也纷纷采取行动。法国宣布将公开政府使用的算法,英国则发布了《数据伦理框架》,要求公共领域使用的数据需具备透明性和可解释性。欧盟的《通用数据保护条例》(GDPR)也强调了算法的可解释性。

科学家们面临着如何定义算法公平性的难题。例如,Allegheny人类服务部在2016年推出了Allegheny Family Screening Tool(AFST),用于预测儿童遭受虐待的风险。尽管该系统旨在提高决策的一致性和准确性,但仍有人担心它可能加剧现有的不公平现象。

理论计算机科学家Suresh Venkatasubramanian指出,自动化决策工具引发的问题并非新鲜事,但随着大数据和复杂模型的广泛应用,伦理问题变得更加突出。研究人员发现,算法在预测过程中可能会引入偏见,尤其是在处理敏感数据时。因此,如何平衡公平性和准确性成为了一个重要议题。

为了应对这一挑战,研究人员提出了多种定义公平性的方法,但这些方法之间可能存在矛盾。例如,假设一个刑事司法系统需要对两个不同群体(蓝色和紫色)进行风险评估,历史数据显示紫色组被捕的概率更高,因此模型可能倾向于将紫色组归类为高风险。然而,即使开发者尽力纠正这种偏差,模型仍可能延续历史数据中的偏见。

研究算法偏见的专家们认为,定义公平性的方法多种多样,但这些方法之间可能存在冲突。例如,一些研究表明,某些算法可能会对特定群体产生更高的假阳性率,从而加剧不公平现象。然而,另一些研究人员则认为,这些假阳性率本身并不足以证明算法存在偏见。

尽管如此,算法的透明性和审计仍然是关键。芝加哥大学、剑桥大学和斯坦福大学等高校的研究人员正在探索算法的公平性和透明性问题。地区检察官办公室的分析师表示,尽管他们知道什么是公平的,但缺乏有效的工具来准确解释算法的结果。

算法的透明性和隐私保护之间的平衡也是一个重要问题。虽然算法的透明性有助于防止不公平现象,但过度披露算法细节可能导致系统被攻击。因此,如何在保护隐私的同时提高透明度成为了一个亟待解决的问题。

此外,一些立法机构也在推动相关法规,以确保算法的公平性和透明性。例如,欧盟的GDPR强调了算法的可解释性,但同时也带来了一些挑战。一些研究人员指出,GDPR的规定可能会阻碍算法的透明性,因为其严格的敏感信息保护措施可能抑制对算法公平性的评估。

最后,研究人员正在寻找外部手段来检测商业算法中的不公平现象。例如,通过开源工具如Aequitas,工程师和政策制定者可以更好地审计机器学习模型中的歧视问题。同时,一些研究人员也在探索其他方法,如通过干预犯罪的影响因素来降低犯罪率。

综上所述,尽管机器学习技术带来了巨大的潜力,但也伴随着潜在的不公平现象。科学家们正在积极寻找方法,以确保算法的公平性和透明性,从而建立更加公正和可信的智能社会。

    本文来源:图灵汇
责任编辑: : 科技漫谈伦
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
偏见机器Nature学习
    下一篇