Artificial intelligence algorithms are increasingly adopted as decisional aides by public organisations, with the promise of overcoming biases of human decision-makers. At the same time, the use of algorithms may introduce new biases in the human-algorithm interaction. A key concern emerging from psychology studies regards human overreliance on algorithmic advice even in the face of warning signals and contradictory information from other sources (automation bias). A second concern regards decision-makers inclination to selectively adopt algorithmic advice when it matches their pre-existing beliefs and stereotypes (selective adherence). To date, we lack rigorous empirical evidence about the prevalence of these biases in a public sector context. We assess these via two pre-registered experimental studies (N=1,509), simulating the use of algorithmic advice in decisions pertaining to the employment of school teachers in the Netherlands. In study 1, we test automation bias by exploring participants adherence to a prediction of teachers performance, which contradicts additional evidence, while comparing between two types of predictions: algorithmic v. human-expert. We do not find evidence for automation bias. In study 2, we replicate these findings, and we also test selective adherence by manipulating the teachers ethnic background. We find a propensity for adherence when the advice predicts low performance for a teacher of a negatively stereotyped ethnic minority, with no significant differences between algorithmic and human advice. Overall, our findings of selective, biased adherence belie the promise of neutrality that has propelled algorithm use in the public sector.


翻译:公共组织越来越多地采用人工智能算法作为决策助手,公共组织承诺克服人类决策者的偏见。与此同时,使用算法可能会在人类-人工互动中引入新的偏见。心理学研究中出现的一个关键关切是,即使在面临警告信号和其他来源的相互矛盾信息的情况下,人类还是过度依赖算法建议(烟雾偏差)。第二个关切是决策者倾向于选择性地采纳算法建议,以与其先前存在的信仰和陈规定型观念相匹配(选择性遵守)。迄今为止,我们缺乏关于公共部门中这些偏见普遍存在的严格经验证据。我们通过两项预先登记的实验研究(N=1,509)评估这些差异。我们在荷兰学校教师就业的决策中模拟使用算法建议。在研究1中,我们测试自动化偏重,探索参与者是否坚持对教师业绩的预测,这与其他证据相矛盾,同时比较两类预测:算法与人类专家(选择性遵守)。我们没有找到自动化偏差的证据。在研究2中,我们复制这些发现这些结果,我们还测试有选择性地遵守逻辑建议,在操纵教师的种族-种族-种族-偏差时,我们测试有选择性地预测教师的偏差。

0
下载
关闭预览

相关内容

Automator是苹果公司为他们的Mac OS X系统开发的一款软件。 只要通过点击拖拽鼠标等操作就可以将一系列动作组合成一个工作流,从而帮助你自动的(可重复的)完成一些复杂的工作。Automator还能横跨很多不同种类的程序,包括:查找器、Safari网络浏览器、iCal、地址簿或者其他的一些程序。它还能和一些第三方的程序一起工作,如微软的Office、Adobe公司的Photoshop或者Pixelmator等。
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
98+阅读 · 2019年10月9日
中山大学 InPlusLab 区块链小组招生
inpluslab
20+阅读 · 2019年9月6日
计算机 | IUI 2020等国际会议信息4条
Call4Papers
6+阅读 · 2019年6月17日
计算机 | 中低难度国际会议信息6条
Call4Papers
7+阅读 · 2019年5月16日
ICLR2019最佳论文出炉
专知
11+阅读 · 2019年5月6日
CCF A类 | 顶级会议RTSS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年4月17日
人工智能 | SCI期刊专刊/国际会议信息7条
Call4Papers
7+阅读 · 2019年3月12日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
已删除
Arxiv
1+阅读 · 2021年4月25日
A Survey on Edge Intelligence
Arxiv
49+阅读 · 2020年3月26日
VIP会员
相关资讯
中山大学 InPlusLab 区块链小组招生
inpluslab
20+阅读 · 2019年9月6日
计算机 | IUI 2020等国际会议信息4条
Call4Papers
6+阅读 · 2019年6月17日
计算机 | 中低难度国际会议信息6条
Call4Papers
7+阅读 · 2019年5月16日
ICLR2019最佳论文出炉
专知
11+阅读 · 2019年5月6日
CCF A类 | 顶级会议RTSS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年4月17日
人工智能 | SCI期刊专刊/国际会议信息7条
Call4Papers
7+阅读 · 2019年3月12日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员