A significant obstacle in the development of robust machine learning models is covariate shift, a form of distribution shift that occurs when the input distributions of the training and test sets differ while the conditional label distributions remain the same. Despite the prevalence of covariate shift in real-world applications, a theoretical understanding in the context of modern machine learning has remained lacking. In this work, we examine the exact high-dimensional asymptotics of random feature regression under covariate shift and present a precise characterization of the limiting test error, bias, and variance in this setting. Our results motivate a natural partial order over covariate shifts that provides a sufficient condition for determining when the shift will harm (or even help) test performance. We find that overparameterized models exhibit enhanced robustness to covariate shift, providing one of the first theoretical explanations for this intriguing phenomenon. Additionally, our analysis reveals an exact linear relationship between in-distribution and out-of-distribution generalization performance, offering an explanation for this surprising recent empirical observation.


翻译:在开发强大的机器学习模型方面,一个重大障碍是共变式,这是一种分配式转变的形式,当培训和测试组的投入分布不同时,就会发生一种分配式转变,而有条件的标签分布则保持不变。尽管现实世界应用中普遍存在共变式转变,但在现代机器学习方面仍然缺乏理论理解。在这项工作中,我们研究了在共变式转变下随机特征回归的精确高维杂念,并对这一环境的有限测试错误、偏差和差异作了精确的描述。我们的结果促使对共变式变化进行自然的局部排序,为确定这种转变何时会损害(甚至帮助)测试性能提供了充分的条件。我们发现,过度的参数模型显示了共变的强大性,为这种引人入胜的现象提供了初步的理论解释之一。此外,我们的分析揭示了分配和分配外概括性表现之间的精确线性关系,为最近令人惊讶的经验性观察提供了解释。

0
下载
关闭预览

相关内容

专知会员服务
20+阅读 · 2021年8月9日
强化学习最新教程,17页pdf
专知会员服务
171+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
100+阅读 · 2019年10月9日
已删除
将门创投
8+阅读 · 2019年7月10日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2022年1月20日
Arxiv
0+阅读 · 2022年1月15日
Deformable ConvNets v2: More Deformable, Better Results
VIP会员
相关资讯
已删除
将门创投
8+阅读 · 2019年7月10日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员