We develop new adaptive algorithms for variational inequalities with monotone operators, which capture many problems of interest, notably convex optimization and convex-concave saddle point problems. Our algorithms automatically adapt to unknown problem parameters such as the smoothness and the norm of the operator, and the variance of the stochastic evaluation oracle. We show that our algorithms are universal and simultaneously achieve the optimal convergence rates in the non-smooth, smooth, and stochastic settings. The convergence guarantees of our algorithms improve over existing adaptive methods by a $\Omega(\sqrt{\ln T})$ factor, matching the optimal non-adaptive algorithms. Additionally, prior works require that the optimization domain is bounded. In this work, we remove this restriction and give algorithms for unbounded domains that are adaptive and universal. Our general proof techniques can be used for many variants of the algorithm using one or two operator evaluations per iteration. The classical methods based on the ExtraGradient/MirrorProx algorithm require two operator evaluations per iteration, which is the dominant factor in the running time in many settings.


翻译:我们为单调操作员的变异不平等开发了新的适应性算法,这些算法包含许多感兴趣的问题,特别是 convex 优化和 convex-concave sold sock pack point point 问题。我们的算法自动适应未知的问题参数,例如操作员的平滑和规范,以及随机评估或触觉的差异。我们显示,我们的算法是普遍的,同时在非吸附、平稳和随机设置中达到最佳的趋同率。我们算法的趋同保证通过一个$\Omega(sqrt=lnT})系数改进了现有的适应方法,与最佳非适应性算法相匹配。此外,先前的工作要求将优化域捆绑起来。在这项工作中,我们取消这一限制,为适应性和普遍性的无约束域提供算法。我们的一般证明技术可以使用一个或两个操作员的反复评价来用于许多变异的算法。基于ExtraGradient/ MirrorProx 算法的经典方法需要两个操作员对它进行这样的评价,这是许多环境中运行时间的主导因素。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Optimization for deep learning: theory and algorithms
Arxiv
102+阅读 · 2019年12月19日
VIP会员
Top
微信扫码咨询专知VIP会员