多平均报酬和多能量游戏的复杂性
摘要:多均值回报游戏中,主角的目标是确保无限序列的数值权重的极限平均值为非负。在能量游戏中,目标是确保权重的累加和始终为非负。多均值回报和多能量游戏使用元组替代单个权重,每个坐标的极限平均值(或者累加和)必须为非负。这些游戏在合成具有多个资源的资源有限过程中应用。我们证明了多能量游戏的有限记忆确定性,并展示了多均值回报和多能量游戏在有限记忆策略下的相互可归约性。我们还改进了使用有限记忆策略解决这两类游戏的计算复杂性:之前已知的最佳上界是EXPSPACE,没有已知的下界,而我们给出了最优的coNP-complete上界。对于无记忆策略,我们证明了决定主角是否存在获胜策略的问题是NP-complete。最后,我们呈现了具有无限记忆策略的多均值回报游戏的第一个解决方案。我们展示了具有均值回报上界目标的多均值回报游戏可以在NP和coNP中决定,而具有均值回报下界目标的多均值回报游戏是coNP-complete。
作者:Yaron Velner, Krishnendu Chatterjee, Laurent Doyen, Thomas A. Henzinger, Alexander Rabinovich, and Jean-Francois Raskin
论文ID:1209.3234
分类:Computer Science and Game Theory
分类简称:cs.GT
提交时间:2012-09-17