Machine learning based predictions are increasingly used in sensitive decision-making applications that directly affect our lives. This has led to extensive research into ensuring the fairness of classifiers. Beyond just fair classification, emerging legislation now mandates that when a classifier delivers a negative decision, it must also offer actionable steps an individual can take to reverse that outcome. This concept is known as algorithmic recourse. Nevertheless, many researchers have expressed concerns about the fairness guarantees within the recourse process itself. In this work, we provide a holistic theoretical characterization of unfairness in algorithmic recourse, formally linking fairness guarantees in recourse and classification, and highlighting limitations of the standard equal cost paradigm. We then introduce a novel fairness framework based on social burden, along with a practical algorithm (MISOB), broadly applicable under real-world conditions. Empirical results on real-world datasets show that MISOB reduces the social burden across all groups without compromising overall classifier accuracy.


翻译:基于机器学习的预测正日益应用于直接影响我们生活的敏感决策场景中,这促使学界对分类器公平性保障展开了广泛研究。除公平分类外,新兴立法进一步要求:当分类器作出负面决策时,必须同时提供个体可采取以扭转该结果的可执行步骤,这一概念被称为算法追索。然而,许多研究者对追索过程本身的公平性保障提出质疑。本研究从理论层面系统刻画了算法追索中的不公平性,形式化建立了追索与分类公平性保障的关联,并揭示了传统等成本范式的局限性。进而提出基于社会负担的新型公平性框架,以及适用于现实场景的实用算法(MISOB)。在真实数据集上的实证结果表明,MISOB能在保持整体分类器准确率的同时,有效降低所有群体的社会负担。

0
下载
关闭预览

相关内容

专知会员服务
112+阅读 · 2020年6月26日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员