Fairness in machine learning (ML) applications is an important practice for developers in research and industry. In ML applications, unfairness is triggered due to bias in the data, curation process, erroneous assumptions, and implicit bias rendered within the algorithmic development process. As ML applications come into broader use developing fair ML applications is critical. Literature suggests multiple views on how fairness in ML is described from the users perspective and students as future developers. In particular, ML developers have not been the focus of research relating to perceived fairness. This paper reports on a pilot investigation of ML developers perception of fairness. In describing the perception of fairness, the paper performs an exploratory pilot study to assess the attributes of this construct using a systematic focus group of developers. In the focus group, we asked participants to discuss three questions- 1) What are the characteristics of fairness in ML? 2) What factors influence developers belief about the fairness of ML? and 3) What practices and tools are utilized for fairness in ML development? The findings of this exploratory work from the focus group show that to assess fairness developers generally focus on the overall ML application design and development, i.e., business-specific requirements, data collection, pre-processing, in-processing, and post-processing. Thus, we conclude that the procedural aspects of organizational justice theory can explain developers perception of fairness. The findings of this study can be utilized further to assist development teams in integrating fairness in the ML application development lifecycle. It will also motivate ML developers and organizations to develop best practices for assessing the fairness of ML-based applications.


翻译:机器学习(ML)应用中的公平性对于研究和产业中的开发人员是一个重要的实践。在ML应用中,由于数据,策划过程,错误假设以及算法开发过程中存在的隐性偏差,不公平性会被触发。随着ML应用范围的不断扩大,开发公平的ML应用程序变得至关重要。文献显示了有关从用户和学生(未来的开发人员)角度描述ML公平性的多个观点。特别是,ML开发人员并没有成为关注感知公平性方面的研究重点。本文报告了一个关于ML开发人员感知公平性的初步研究。为了描述公平性感知,本文使用开发人员的系统焦点小组进行了探索性试验研究,以评估这一概念的属性。在焦点小组中,我们要求参与者讨论以下三个问题:1)ML中公平性的特征是什么?2)什么因素影响开发人员对ML公平性的信仰?3)开发公平ML所使用的实践和工具有哪些?这个探索性工作的研究结果显示,为了评估公平性,开发人员通常会着重关注整个ML应用程序的设计和开发,即对特定业务需求的要求,数据收集,预处理,执行和后处理。因此,我们得出结论,组织公正理论的程序方面可以解释开发人员对公平性的感知。本研究的结果可以进一步用于协助开发团队在ML应用程序开发生命周期中集成公平性。它还将激励ML开发人员和组织为评估基于ML的应用程序的公平性发展最佳实践。

0
下载
关闭预览

相关内容

机器学习损失函数概述,Loss Functions in Machine Learning
专知会员服务
81+阅读 · 2022年3月19日
WWW2022 | 基于因果的推荐算法教程
机器学习与推荐算法
3+阅读 · 2022年5月26日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
108+阅读 · 2020年2月5日
VIP会员
相关VIP内容
机器学习损失函数概述,Loss Functions in Machine Learning
专知会员服务
81+阅读 · 2022年3月19日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员