In this work, we investigate the expressiveness of the "conditional mutual information" (CMI) framework of Steinke and Zakynthinou (2020) and the prospect of using it to provide a unified framework for proving generalization bounds in the realizable setting. We first demonstrate that one can use this framework to express non-trivial (but sub-optimal) bounds for any learning algorithm that outputs hypotheses from a class of bounded VC dimension. We prove that the CMI framework yields the optimal bound on the expected risk of Support Vector Machines (SVMs) for learning halfspaces. This result is an application of our general result showing that stable compression schemes Bousquet al. (2020) of size $k$ have uniformly bounded CMI of order $O(k)$. We further show that an inherent limitation of proper learning of VC classes contradicts the existence of a proper learner with constant CMI, and it implies a negative resolution to an open problem of Steinke and Zakynthinou (2020). We further study the CMI of empirical risk minimizers (ERMs) of class $H$ and show that it is possible to output all consistent classifiers (version space) with bounded CMI if and only if $H$ has a bounded star number (Hanneke and Yang (2015)). Moreover, we prove a general reduction showing that "leave-one-out" analysis is expressible via the CMI framework. As a corollary we investigate the CMI of the one-inclusion-graph algorithm proposed by Haussler et al. (1994). More generally, we show that the CMI framework is universal in the sense that for every consistent algorithm and data distribution, the expected risk vanishes as the number of samples diverges if and only if its evaluated CMI has sublinear growth with the number of samples.


翻译:在这项工作中,我们调查Steinke和Zakynthinou(2020年)的“有条件相互信息”(CMI)框架(CMI)的清晰度,以及利用它提供统一框架以证明可实现环境的通用界限的前景。我们首先证明,我们可以利用这个框架来表达非三重(但亚最佳)的(非三重)界限,任何学习算法,即从受约束的VC层面产生产出的假设。我们证明,CMI框架在支持矢量机器(SVMs)学习半空的预期最终风险方面达到了最佳的界限。我们进一步研究了CMI的常规结果,显示稳定压缩计划(20202020年)的布斯凯特(CK202020年),统一约束了美元(CMI)的顺序。我们进一步表明,正确学习VCCMI课程的内在局限性与持续数字(如果CMILA的数值显示,那么CMI的数值就会持续减少,如果CMIL的数值会显示, AL的数值会显示,只有美元(ER)的数值的数值的数值会显示,那么, AL-C-CMILA(C-LA的数值的数值会显示,如果我们总的数值的数值的数值的数值的数值的数值会显示,则显示,只有一定的数值的数值的数值的数值的数值的数值的数值的数值会显示,则显示,也显示)的数值的数值会的数值会显示,则显示,只有一定的数值的数值的数值的数值的数值的数值的数值会的数值会减少的数值的数值会减少的数值。

0
下载
关闭预览

相关内容

专知会员服务
98+阅读 · 2021年3月19日
专知会员服务
38+阅读 · 2020年10月17日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
已删除
将门创投
6+阅读 · 2019年11月21日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2022年1月13日
Arxiv
38+阅读 · 2021年8月31日
Arxiv
8+阅读 · 2020年10月12日
A General and Adaptive Robust Loss Function
Arxiv
7+阅读 · 2018年11月5日
VIP会员
相关资讯
已删除
将门创投
6+阅读 · 2019年11月21日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员