In general, finite concurrent two-player reachability games are only determined in a weak sense: the supremum probability to win can be approached via stochastic strategies, but cannot be realized. We introduce a class of concurrent games that are determined in a much stronger sense, and in a way, it is the larger class with this property. To this end, we introduce the notion of \emph{local interaction} at a state of a graph game: it is a \emph{game form} whose outcomes (i.e. a table whose entries) are the next states, which depend on the concurrent actions of the players. By definition, a game form is \emph{determined} iff it always yields games that are determined via deterministic strategies when used as a local interaction in a Nature-free, one-shot reachability game. We show that if all the local interactions of a graph game with Borel objective are determined game forms, the game itself is determined: if Nature does not play, one player has a winning strategy; if Nature plays, both players have deterministic strategies that maximize the probability to win. This constitutes a clear-cut separation: either a game form behaves poorly already when used alone with basic objectives, or it behaves well even when used together with other well-behaved game forms and complex objectives. Existing results for positional and finite-memory determinacy in turn-based games are extended this way to concurrent games with determined local interactions (CG-DLI).


翻译:一般来说, 有限并存的双玩者可达性游戏只能从一个薄弱的意义上来决定: 胜出的可能性可以通过随机策略接近, 但无法实现。 我们引入了一组同时游戏, 以更强的意义上来决定, 并且以某种方式, 这是与此属性的较大类 。 为此, 我们在一个图形游戏的状态中引入了 emph{ 本地互动 的概念 : 它是一个本地游戏的形式 : 它的结果( 即一个其条目的表格 ) 是下一个状态, 取决于玩家的同时动作 。 定义是, 游戏的形式是\ emph{ 确定性游戏的形式。 如果它总是通过确定性策略来决定游戏, 而当它被使用在一个没有自然的、 一发的可达性游戏中作为本地互动。 我们显示, 如果一个图形游戏与 Borel 目标的所有本地的交互作用都被确定为游戏形式 : 如果自然不玩, 一个玩家有赢取策略 ; 如果自然玩家都有确定性的战略, 即使是游戏的确定性位置, 即使是游戏的形式是最小性的, 当游戏在游戏的任意性上最大的可能性, 当游戏的方式被使用时, 以不同的游戏的形式来赢得, 。 使用一种简单的 。 当游戏的方式已经被使用了, 当游戏的形式被使用过不同的选择, 当游戏的形式, 当游戏的形式使用过为不同的选择了游戏的形式, 当游戏的形式, 当游戏的方式是不同的选择,, 当游戏的方式是不同的选择, 当游戏的形式, 当游戏的形式, 当游戏的游戏的形式是不同的, 和不同的选择,, 当游戏的方式是不同的选择, 当游戏的形式,, 当它被使用不同的选择, 以不同的选择, 以不同的选择, 当游戏的形式, 当游戏的形式, 当游戏的形式, 当游戏的形式, 当游戏的形式, 当游戏的方式是不同的选择, 当游戏的方式是不同的选择, 当游戏的方式是不同的选择, 当它被使用, 当它被使用, 当它被使用, 当它被使用, 它被使用, 它被使用, 它被使用, 它被使用, 它被使用, 它被使用, 它被使用, 它被使用过不同的方式, 当它被使用, 当它被使用, 它以不同的方式以不同的形式, 当它被使用, 以不同的形式, 它以不同的形式, 它以不同的

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
Linux导论,Introduction to Linux,96页ppt
专知会员服务
76+阅读 · 2020年7月26日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
106+阅读 · 2020年5月15日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
270+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:基于LSTM的序列推荐实现(PyTorch)
LibRec智能推荐
50+阅读 · 2018年8月27日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年9月10日
Arxiv
3+阅读 · 2018年2月24日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:基于LSTM的序列推荐实现(PyTorch)
LibRec智能推荐
50+阅读 · 2018年8月27日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员