Many problems in classification involve huge numbers of irrelevant features. Model selection reveals the crucial features, reduces the dimensionality of feature space, and improves model interpretation. In the support vector machine literature, model selection is achieved by $\ell_1$ penalties. These convex relaxations seriously bias parameter estimates toward 0 and tend to admit too many irrelevant features. The current paper presents an alternative that replaces penalties by sparse-set constraints. Penalties still appear, but serve a different purpose. The proximal distance principle takes a loss function $L(\boldsymbol{\beta})$ and adds the penalty $\frac{\rho}{2}\mathrm{dist}(\boldsymbol{\beta}, S_k)^2$ capturing the squared Euclidean distance of the parameter vector $\boldsymbol{\beta}$ to the sparsity set $S_k$ where at most $k$ components of $\boldsymbol{\beta}$ are nonzero. If $\boldsymbol{\beta}_\rho$ represents the minimum of the objective $f_\rho(\boldsymbol{\beta})=L(\boldsymbol{\beta})+\frac{\rho}{2}\mathrm{dist}(\boldsymbol{\beta}, S_k)^2$, then $\boldsymbol{\beta}_\rho$ tends to the constrained minimum of $L(\boldsymbol{\beta})$ over $S_k$ as $\rho$ tends to $\infty$. We derive two closely related algorithms to carry out this strategy. Our simulated and real examples vividly demonstrate how the algorithms achieve much better sparsity without loss of classification power.


翻译:分类中的许多问题都涉及大量不相关的特性。 模型选择显示关键特性, 降低特性空间的维度, 并改进模型解释 。 在支持矢量机器文献中, 模型选择是通过 $\ ell_ 1$ 的罚款实现的。 这些 convex 将严重偏差参数估计值降为 0, 并倾向于接受太多不相关的特性 。 本文提供了一个替代处罚的替代方案, 以稀疏的限制取代处罚 。 处罚仍然出现, 但有不同的目的 。 准值距离原则需要一个损失函数 $ (\ boldsymballball) $ (bold) 2\ ballsyall_ matermatermaeta{ dist} (bold_ $_ bretalexl_ bretalexal_ listal_ bold_ listal_ bold_ bold_ moxlegal_ blog_ liflexal_ bal_ legal_ ligal_ real_ real_ ligal_ real_ real_ real_ real_ real_ real_ real_ real_ real_ real_ real_ demod_ lifal_ lifal_ lifal_ exal_ lifbbb_ lifal_ lid_ lid_ ex===d_ ligal_ lifald_ lifald_ lifald_ lidald_ led_ lid_ lid_ lid_ lid_ lifal_ lid_ lid_ lid_ lifal_ lid_ lid_ exd_ lid_ lid_ lid_ liald_ exal_ exaldaldal_ modal_ mod_ liald_ lial_ lid_ mod_ mod_ mod_ mod_ mod_ mod_ mod_ mod_ mod_ mod_ mod_ mod_ mo

2
下载
关闭预览

相关内容

专知会员服务
158+阅读 · 2020年1月16日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Arxiv
0+阅读 · 2021年12月8日
Arxiv
0+阅读 · 2021年12月7日
Arxiv
6+阅读 · 2019年12月30日
Arxiv
5+阅读 · 2019年4月25日
Arxiv
3+阅读 · 2017年12月1日
VIP会员
相关资讯
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Top
微信扫码咨询专知VIP会员