This paper presents a new primal-dual method for computing an equilibrium of generalized (continuous) Nash game (referred to as generalized Nash equilibrium problem (GNEP)) where each player's feasible strategy set depends on the other players' strategies. The method is based on a new form of Lagrangian function with a quadratic approximation. First, we reformulate a GNEP as a saddle point computation using the new Lagrangian and establish equivalence between a saddle point of the Lagrangian and an equilibrium of the GNEP. We then propose a simple algorithm that is convergent to the saddle point. Furthermore, we establish global convergence by assuming that the Lagrangian function satisfies the Kurdyka-{\L}ojasiewicz property. A distinctive feature of our analysis is to make use of the new Lagrangian as a potential function to guide the iterate convergence, which is based on the idea of turning a descent method into a multiplier method. Our method has two novel features over existing approaches: (i) it requires neither boundedness assumptions on the strategy set and the set of multipliers of each player, nor any boundedness assumptions on the iterates generated by the algorithm; (ii) it leads to a Jacobi-type decomposition scheme, which, to the best of our knowledge, is the first development of a distributed algorithm to solve a general class of GNEPs. Numerical experiments are performed on benchmark test problems and the results demonstrate the effectiveness of the proposed method.


翻译:本文展示了一种新的初衷方法,用于计算普遍(持续)纳什(Nash)游戏的平衡(称为普遍纳什均衡问题(GENEP)),每个玩家的可行战略集取决于其他玩家的战略。该方法基于一种新型的拉格朗加函数和四面形近似值。 首先,我们用新的拉格朗加亚重塑一个GENEP作为马鞍点计算马鞍点,并在拉格朗加亚马鞍点和GENEP平衡之间建立等值。 然后,我们提出了一个简单的简单算法,该算法与马鞍点相融合。此外,我们假设拉格朗加函数的可行战略集满足了其他玩家的策略。这个方法基于一种新的拉格朗加亚(GNEP)计算方法,而我们的方法与现有的方法相比有两个新的特征:(一)它不需要对战略集进行约束性假设,也不需要确定每个玩家的乘法特性。 我们的分析的一个独特特征是利用新的拉格拉格朗加基值来指导它的趋比的模型的模型的模型, 也就是算算算法的模型。

0
下载
关闭预览

相关内容

在数学中,鞍点或极大极小点是函数图形表面上的一点,其正交方向上的斜率(导数)都为零,但它不是函数的局部极值。鞍点是在某一轴向(峰值之间)有一个相对最小的临界点,在交叉轴上有一个相对最大的临界点。
专知会员服务
61+阅读 · 2020年3月4日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
270+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
8+阅读 · 2019年2月15日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员