公平的衡量与误衡

摘要:公平机器学习领域旨在确保由算法指导的决策公正。在过去的十年中,已经出现了几个形式化、数学化的公平定义。首先,我们将这些定义整理归类为两个大的家族:(1)限制决策对差异的影响;(2)限制法律保护的特征(如种族和性别)对决策的影响。然后,我们通过分析和实证研究表明,这两个家族的定义通常导致严重帕累托劣势的决策政策。例如,在大学入学方面,遵循流行的形式化公平概念将同时导致较低的学生多样性和较低的学术准备水平,相对于通过明确调整入学政策以实现期望结果所能达到的情况。从这个意义上说,要求这些公平定义得以满足,实际上会对它们所设计来保护的群体造成反效果。与公平的公理概念相反,我们认为算法的公正设计需要面对其特定环境下的后果,类似于政策的公正设计。最后,我们列举了公平机器学习中的一些挑战,并提供了确保算法与政策目标更好对齐的策略。

作者:Sam Corbett-Davies, Johann D. Gaebler, Hamed Nilforoshan, Ravi Shroff, and Sharad Goel

论文ID:1808.00023

分类:Computers and Society

分类简称:cs.CY

提交时间:2023-08-31

PDF 下载: 英文版 中文版pdf翻译中