多智能体系统中基于上下文的并发经验共享
摘要:多智能体学习的一个关键挑战是可扩展性。本文介绍了一种通过利用并发和增量式经验共享来加速多智能体学习的技术。这种解决方案能够自适应地识别智能体之间的经验转移机会,并能够在大规模、随机、同质多智能体系统中快速获取适当的策略。我们引入了一种在线、分布式、主管指导的转移技术,用于构建智能体的动态学习环境的高层特征,称为上下文,这些上下文用于识别在短时窗内以大致相似的动态操作的智能体组。一组主管智能体计算下属智能体组的上下文信息,从而识别经验共享的候选者。我们的方法使用分层架构,在每个动态识别的信息共享组的成员之间以低通信开销传播状态、动作和奖励数据。我们将这种方法应用于一个具有数百个信息共享智能体,在未知的非平稳环境中操作的大规模分布式任务分配问题。我们证明了我们的方法导致了显著的性能提升,它对噪声干扰或次优的上下文特征具有稳健性,并且通信成本与主管与下属的比例成线性缩放。
作者:Dan Garant and Bruno da Silva and Victor Lesser and Chongjie Zhang
论文ID:1703.01931
分类:Multiagent Systems
分类简称:cs.MA
提交时间:2017-03-07