In the optional prisoner's dilemma (OPD), players can choose to cooperate and defect as usual, but can also abstain as a third possible strategy. This strategy models the players' participation in the game and is a relevant aspect in many settings, e.g. social networks or opinion dynamics where abstention is an option during an election. In this paper, we provide a formulation of the OPD where we consider irrational behaviours in the population inspired by prospect theory. Prospect theory has gained increasing popularity in recent times thanks to its ability to capture aspects such as reference dependence or loss aversion which are common in human behaviour. This element is original in our formulation of the game and is incorporated in our framework through pairwise comparison dynamics. Recently, the impact of the environment has been studied in the form of feedback on the population dynamics. Another element of novelty in our work is the extension of the game-environment feedback to the OPD in two forms of dynamics, the replicator and the pairwise comparison. The contribution of this paper is threefold. First, we propose a modelling framework where prospect theory is used to capture irrational behaviours in an evolutionary game with game-environment feedback. Second, we carry out the stability analysis of the system equilibria and discuss the oscillating behaviours arising from the game-environment feedback. Finally, we extend our previous results to the OPD and we discuss the main differences between the model resulting from the replicator dynamics and the one resulting from the pairwise comparison dynamics.


翻译:在选取囚犯的两难困境中,球员可以选择一如既往地合作和叛逃,但也可以作为第三种可能的战略而放弃。这一战略模拟球员参与游戏,是许多环境中的一个相关方面,例如社会网络或舆论动态,在选举中弃权是一个选项。在本文中,我们提供了OPD的提法,我们从中考虑受前景理论启发的人口的非理性行为。前景理论最近越来越受欢迎,因为它能够捕捉参考依赖性或损失反向等在人类行为中常见的方面。这一要素是我们在游戏的拟订过程中的创举,并且通过配对比较动态纳入我们的框架。最近,环境影响是以对人口动态的反馈形式研究的。我们工作的另一个新内容是将游戏-环境反馈扩展至OPD的两种形式,即模拟和配对的比较。首先,我们提出了一个模拟框架,将前景理论用于在游戏-环境动态中的演进性行为与游戏-环境动态的反馈纳入我们的框架。最后,我们从游戏-环境动态分析到我们之前的演进和演进的演进结果,我们从一个变动中,我们从一个变动的变动和演进中,我们从一个变动的演进的演进的演进到最后,我们从一个变动的演进性分析,我们从一个变动的演进和演进的演进结果,我们从一个变动的演进的演进结果的演进结果的演进结果的演进结果的演进结果的结果。我们将了稳定分析结果的结果。最后,我们从了对结果的演进分析了对结果,我们的演进。最后,我们的演进分析了对的演进。最后,我们的演进的演进的演进。最后,我们从了对结果的演进分析了对结果,我们从了对的演进的演进的演进的演进的演进的演进的演进的演进的演进的结果。最后,我们的演进性分析,我们的演进的演进的结果。我们从了对结果的演进的演进。分析结果的演进。最后的演进的演进分析,我们的演进的演进的演进的结果。我们的演进。最后我们的演进。

0
下载
关闭预览

相关内容

【Cell】神经算法推理,Neural algorithmic reasoning
专知会员服务
27+阅读 · 2021年7月16日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
LibRec 精选:位置感知的长序列会话推荐
LibRec智能推荐
3+阅读 · 2019年5月17日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2021年8月11日
Arxiv
12+阅读 · 2021年5月3日
Arxiv
3+阅读 · 2018年10月8日
VIP会员
相关VIP内容
【Cell】神经算法推理,Neural algorithmic reasoning
专知会员服务
27+阅读 · 2021年7月16日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
相关资讯
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
LibRec 精选:位置感知的长序列会话推荐
LibRec智能推荐
3+阅读 · 2019年5月17日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员