Covariate shifts are a common problem in predictive modeling on real-world problems. This paper proposes addressing the covariate shift problem by minimizing Maximum Mean Discrepancy (MMD) statistics between the training and test sets in either feature input space, feature representation space, or both. We designed three techniques that we call MMD Representation, MMD Mask, and MMD Hybrid to deal with the scenarios where only a distribution shift exists, only a missingness shift exists, or both types of shift exist, respectively. We find that integrating an MMD loss component helps models use the best features for generalization and avoid dangerous extrapolation as much as possible for each test sample. Models treated with this MMD approach show better performance, calibration, and extrapolation on the test set.


翻译:共变式变化是真实世界问题预测模型中常见的问题。 本文建议通过在地物输入空间、特征代表空间或两者中尽量减少培训和测试组之间最大平均值差异( MMD)的统计,解决共变式转移问题。 我们设计了三种技术,我们称之为 MMD 代表、 MMD Mask 和 MMD 混合技术,以应对只有分布变化存在、只有缺失变化存在或存在两种类型的转移的情景。 我们发现,整合 MMD 损失部分有助于模型使用最佳的通用特征,并尽可能避免每个测试样本出现危险的外推法。 使用MMD 方法处理的模型显示测试集的性能、校准和外推法更好。

0
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2021年4月2日
【干货书】机器学习速查手册,135页pdf
专知会员服务
123+阅读 · 2020年11月20日
Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
105+阅读 · 2020年5月3日
因果图,Causal Graphs,52页ppt
专知会员服务
240+阅读 · 2020年4月19日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
已删除
将门创投
8+阅读 · 2019年8月28日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
保序最优传输:Order-preserving Optimal Transport
我爱读PAMI
6+阅读 · 2018年9月16日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2022年1月24日
Arxiv
0+阅读 · 2022年1月23日
Arxiv
0+阅读 · 2022年1月23日
Arxiv
38+阅读 · 2021年8月31日
Arxiv
12+阅读 · 2021年6月29日
Disentangled Information Bottleneck
Arxiv
12+阅读 · 2020年12月22日
Arxiv
6+阅读 · 2018年11月29日
VIP会员
相关资讯
已删除
将门创投
8+阅读 · 2019年8月28日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
保序最优传输:Order-preserving Optimal Transport
我爱读PAMI
6+阅读 · 2018年9月16日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
0+阅读 · 2022年1月24日
Arxiv
0+阅读 · 2022年1月23日
Arxiv
0+阅读 · 2022年1月23日
Arxiv
38+阅读 · 2021年8月31日
Arxiv
12+阅读 · 2021年6月29日
Disentangled Information Bottleneck
Arxiv
12+阅读 · 2020年12月22日
Arxiv
6+阅读 · 2018年11月29日
Top
微信扫码咨询专知VIP会员