Kernel logistic regression (KLR) is a classical nonlinear classifier in statistical machine learning. Newton method with quadratic convergence rate can solve KLR problem more effectively than the gradient method. However, an obvious limitation of Newton method for training large-scale problems is the $O(n^{3})$ time complexity and $O(n^{2})$ space complexity, where $n$ is the number of training instances. In this paper, we employ the multilevel circulant matrix (MCM) approximate kernel matrix to save in storage space and accelerate the solution of the KLR. Combined with the characteristics of MCM and our ingenious design, we propose an MCM approximate Newton iterative method. We first simplify the Newton direction according to the semi-positivity of the kernel matrix and then perform a two-step approximation of the Newton direction by using MCM. Our method reduces the time complexity of each iteration to $O(n \log n)$ by using the multidimensional fast Fourier transform (mFFT). In addition, the space complexity can be reduced to $O(n)$ due to the built-in periodicity of MCM. Experimental results on some large-scale binary and multi-classification problems show that our method makes KLR scalable for large-scale problems, with less memory consumption, and converges to test accuracy without sacrifice in a shorter time.


翻译:内核后勤回归( KLR) 是典型的统计机器学习的非线性分类( KLR) 。 牛顿法( 牛顿法) 具有二次趋同率可以比梯度法更有效地解决 KLR 问题。 然而, 牛顿法( 牛顿法) 培训大规模问题的一个明显限制是 美元( {{} 3}) 时间复杂性和 美元( {}) 空间复杂度, 即 美元( {} 4} ) 是培训实例的数量。 在本文件中, 我们使用多级环流矩阵( MCMM) 近乎内核质矩阵( MCM), 以节省存储空间, 加速 KLR的解决方案。 此外, 与 MCM 和我们巧妙的设计相结合, 我们提议了 MCM 近于 牛顿 的迭接法 。 我们首先根据内核矩阵的半保质性简化了牛顿方向, 然后通过使用 MCM 将 方向的两步相近近, 通过使用多级的多级变换( MAT ) 的快速变换( ) 。 此外,, 空间复杂性可以降低 和 硬化为大规模的硬化, 质 的 的 的 质 的 的 质的 质的 。

0
下载
关闭预览

相关内容

【硬核书】Linux核心编程|Linux Kernel Programming,741页pdf
专知会员服务
77+阅读 · 2021年3月26日
专知会员服务
75+阅读 · 2021年3月16日
Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
105+阅读 · 2020年5月3日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
专知会员服务
158+阅读 · 2020年1月16日
【新书】Python编程基础,669页pdf
专知会员服务
186+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
零基础学SVM—Support Vector Machine系列之一
AI研习社
7+阅读 · 2017年11月10日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
Low-rank Matrix Recovery With Unknown Correspondence
Arxiv
0+阅读 · 2021年10月15日
Arxiv
0+阅读 · 2021年10月13日
Arxiv
9+阅读 · 2021年3月8日
Arxiv
3+阅读 · 2018年10月18日
VIP会员
相关VIP内容
【硬核书】Linux核心编程|Linux Kernel Programming,741页pdf
专知会员服务
77+阅读 · 2021年3月26日
专知会员服务
75+阅读 · 2021年3月16日
Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
105+阅读 · 2020年5月3日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
专知会员服务
158+阅读 · 2020年1月16日
【新书】Python编程基础,669页pdf
专知会员服务
186+阅读 · 2019年10月10日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
零基础学SVM—Support Vector Machine系列之一
AI研习社
7+阅读 · 2017年11月10日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
Top
微信扫码咨询专知VIP会员