机器学习应用在高风险领域(如刑事判决、医学测试、在线广告等)的流行,至关重要的是要确保这些决策支持系统不会传播历史数据中可能存在的现有偏见或歧视。一般来说,在算法公平文献中有两个关于公平的中心概念。第一个是个体公平,它要求公平的算法以相似的方式对待相似的个体。然而,在实践中,通常很难找到或设计一个社会可接受的距离度量来捕获个体之间关于特定任务的相似性。相反,在这篇博客文章中,我们关注的是公平的第二个概念,群体公平,更具体地说是统计上的平等,这本质上要求预测器的结果在不同的子群体中是平等的。

成为VIP会员查看完整内容
34

相关内容

相互尊重的结果
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
165+阅读 · 2020年5月27日
专知会员服务
53+阅读 · 2019年12月22日
421页《机器学习数学基础》最新2019版PDF下载
Machine Learning:十大机器学习算法
开源中国
19+阅读 · 2018年3月1日
推荐系统机器学习算法概览
论智
7+阅读 · 2017年12月14日
Arxiv
33+阅读 · 2020年1月2日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Arxiv
11+阅读 · 2018年7月8日
VIP会员
微信扫码咨询专知VIP会员