Despite the success of machine learning applications in science, industry, and society in general, many approaches are known to be non-robust, often relying on spurious correlations to make predictions. Spuriousness occurs when some features correlate with labels but are not causal; relying on such features prevents models from generalizing to unseen environments where such correlations break. In this work, we focus on image classification and propose two data generation processes to reduce spuriousness. Given human annotations of the subset of the features responsible (causal) for the labels (e.g. bounding boxes), we modify this causal set to generate a surrogate image that no longer has the same label (i.e. a counterfactual image). We also alter non-causal features to generate images still recognized as the original labels, which helps to learn a model invariant to these features. In several challenging datasets, our data generations outperform state-of-the-art methods in accuracy when spurious correlations break, and increase the saliency focus on causal features providing better explanations.


翻译:尽管在科学、工业和整个社会的机器学习应用取得了成功,但人们知道许多方法都是非野蛮的,往往依赖虚假的关联来作出预测。当某些特征与标签相关,但并非因果关系时,就会出现净化;依赖这些特征使模型无法概括到这种关联破碎的无形环境中。在这项工作中,我们侧重于图像分类,并提出两个数据生成程序以减少虚假性。鉴于对标签负责的(因果)特征(如捆绑框)的人类说明,我们修改这一因果组合以产生不再具有相同标签的替代图像(即反事实图像),我们还改变非因果特征以生成仍然被确认为原始标签的图像,这有助于学习这些特征的变异模型。在几个挑战性数据集中,我们的数据代代在虚假关联破裂时超越了准确性的最新方法,并增加了对因果关系特征的突出重点,提供了更好的解释。

0
下载
关闭预览

相关内容

商业数据分析,39页ppt
专知会员服务
157+阅读 · 2020年6月2日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
已删除
创业邦杂志
5+阅读 · 2019年3月27日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Imitation by Predicting Observations
Arxiv
4+阅读 · 2021年7月8日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
21+阅读 · 2019年8月21日
Using Scene Graph Context to Improve Image Generation
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
已删除
创业邦杂志
5+阅读 · 2019年3月27日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员