We study the problem of sparse tensor principal component analysis: given a tensor $\pmb Y = \pmb W + \lambda x^{\otimes p}$ with $\pmb W \in \otimes^p\mathbb{R}^n$ having i.i.d. Gaussian entries, the goal is to recover the $k$-sparse unit vector $x \in \mathbb{R}^n$. The model captures both sparse PCA (in its Wigner form) and tensor PCA. For the highly sparse regime of $k \leq \sqrt{n}$, we present a family of algorithms that smoothly interpolates between a simple polynomial-time algorithm and the exponential-time exhaustive search algorithm. For any $1 \leq t \leq k$, our algorithms recovers the sparse vector for signal-to-noise ratio $\lambda \geq \tilde{\mathcal{O}} (\sqrt{t} \cdot (k/t)^{p/2})$ in time $\tilde{\mathcal{O}}(n^{p+t})$, capturing the state-of-the-art guarantees for the matrix settings (in both the polynomial-time and sub-exponential time regimes). Our results naturally extend to the case of $r$ distinct $k$-sparse signals with disjoint supports, with guarantees that are independent of the number of spikes. Even in the restricted case of sparse PCA, known algorithms only recover the sparse vectors for $\lambda \geq \tilde{\mathcal{O}}(k \cdot r)$ while our algorithms require $\lambda \geq \tilde{\mathcal{O}}(k)$. Finally, by analyzing the low-degree likelihood ratio, we complement these algorithmic results with rigorous evidence illustrating the trade-offs between signal-to-noise ratio and running time. This lower bound captures the known lower bounds for both sparse PCA and tensor PCA. In this general model, we observe a more intricate three-way trade-off between the number of samples $n$, the sparsity $k$, and the tensor power $p$.


翻译:我们研究的是稀有的沙拉本元素分析问题:考虑到一个 $\ pmb Y =\ pmb W +\ lambda x ⁇ otime p} $\ pb W 在\ otimes\ p\ mathb{R ⁇ 美元有 i.d. 高西亚条目,目标是回收 $k$- sprose 单位矢量 $x \ mathbision{ R ⁇ n$。模型既能捕捉稀有的 CPA (以其 Wigner 形式) 和 ARmor 交易 。对于高度稀薄的 MIRC =leqdal_ lider_ 美元,我们呈现的算盘中顺畅的算数 。对于任何 $leq t\ leq k k$, 我们的算法仅能回收信号到的稀少的矢量量, 以我们的时间 =\\ 美元( r\\\\ laxxx) 时间案例中,(sral\\\\\\\\\\ lax cal cal case axxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx======================================================================================================

0
下载
关闭预览

相关内容

在统计中,主成分分析(PCA)是一种通过最大化每个维度的方差来将较高维度空间中的数据投影到较低维度空间中的方法。给定二维,三维或更高维空间中的点集合,可以将“最佳拟合”线定义为最小化从点到线的平均平方距离的线。可以从垂直于第一条直线的方向类似地选择下一条最佳拟合线。重复此过程会产生一个正交的基础,其中数据的不同单个维度是不相关的。 这些基向量称为主成分。
专知会员服务
75+阅读 · 2021年3月16日
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
121+阅读 · 2020年11月20日
【2020新书】数据科学与机器学习导论,220页pdf
专知会员服务
80+阅读 · 2020年9月14日
专知会员服务
158+阅读 · 2020年1月16日
MIT新书《强化学习与最优控制》
专知会员服务
270+阅读 · 2019年10月9日
异常检测论文大列表:方法、应用、综述
专知
125+阅读 · 2019年7月15日
《科学》(20190426出版)一周论文导读
科学网
5+阅读 · 2019年4月27日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
机器学习的5种距离度量方法
七月在线实验室
9+阅读 · 2018年5月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Python · SVM(三)· 核方法
机器学习研究会
7+阅读 · 2017年8月8日
Arxiv
0+阅读 · 2021年8月6日
Arxiv
0+阅读 · 2021年8月6日
VIP会员
相关VIP内容
专知会员服务
75+阅读 · 2021年3月16日
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
121+阅读 · 2020年11月20日
【2020新书】数据科学与机器学习导论,220页pdf
专知会员服务
80+阅读 · 2020年9月14日
专知会员服务
158+阅读 · 2020年1月16日
MIT新书《强化学习与最优控制》
专知会员服务
270+阅读 · 2019年10月9日
Top
微信扫码咨询专知VIP会员