Huiyuan Zhuo 路参与

北京大学研究者提出注意力通信模型ATOC,助力多智能体协作

近日,来自北京大学的研究者在 arXiv 上发布论文,提出一种新型注意力通信模型 ATOC,使智能体在大型多智能体强化学习的部分可观测分布式环境下能够进行高效的通信,帮助智能体开发出更协调复杂的策略。

从生物学角度来看,通信与合作关系密切,并可能起源于合作。例如,长尾黑颚猴可以发出不同的声音来警示群体中的其他成员有不同的捕食者 [2]。类似地,在多智能体强化学习(multi-agent reinforcement learning,MARL)中,通信对于合作尤为重要,特别是在大量智能体协同工作的场景下,诸如自动车辆规划 [1]、智能电网控制 [20] 和多机器人控制 [14]。

深度强化学习(RL)在一系列具有挑战性的问题中取得了显著成功,如游戏 [16] [22] [8] 和机器人 [12] [11] [5]。我们可以把 MARL 看作是独立的 RL,其中每个学习器都将其他智能体看成是环境的一部分。然而,随着训练进行,其他智能体的策略是会变动的,所以从任意单个智能体的角度来看,环境变得不稳定,智能体间难以合作。此外,使用独立 RL 学习到的策略很容易与其他智能体的策略产生过拟合 [9]。

本论文研究者认为解决该问题的关键在于通信,这可以增强策略间的协调。MARL 中有一些学习通信的方法,包括 DIAL [3]、CommNet [23]、BiCNet [18] 和 master-slave [7]。然而,现有方法所采用的智能体之间共享的信息或是预定义的通信架构是有问题的。当存在大量智能体时,智能体很难从全局共享的信息中区分出有助于协同决策的有价值的信息,因此通信几乎毫无帮助甚至可能危及协同学习。此外,在实际应用中,由于接收大量信息需要大量的带宽从而引起长时间的延迟和高计算复杂度,因此所有智能体之间彼此的通信是十分昂贵的。像 master-slave [7] 这样的预定义通信架构可能有所帮助,但是它们限定特定智能体之间的通信,因而限制了潜在的合作可能性。

为了解决这些困难,本论文提出了一种名为 ATOC 的注意力通信模型,使智能体在大型 MARL 的部分可观测分布式环境下学习高效的通信。受视觉注意力循环模型的启发,研究者设计了一种注意力单元,它可以接收编码局部观测结果和某个智能体的行动意图,并决定该智能体是否要与其他智能体进行通信并在可观测区域内合作。如果智能体选择合作,则称其为发起者,它会为了协调策略选择协作者来组成一个通信组。通信组进行动态变化,仅在必要时保持不变。研究者利用双向 LSTM 单元作为信道来连接通信组内的所有智能体。LSTM 单元将内部状态(即编码局部观测结果和行动意图)作为输入并返回指导智能体进行协调策略的指令。与 CommNet 和 BiCNet 分别计算内部状态的算术平均值和加权平均值不同,LSTM 单元有选择地输出用于协作决策的重要信息,这使得智能体能够在动态通信环境中学习协调策略。

研究者将 ATOC 实现为端到端训练的 actor-critic 模型的扩展。在测试阶段,所有智能体共享策略网络、注意力单元和信道,因此 ATOC 在大量智能体的情况下具备很好的扩展性。研究者在三个场景中通过实验展示了 ATOC 的成功,分别对应于局部奖励、共享全局奖励和竞争性奖励下的智能体协作。与现有的方法相比,ATOC 智能体被证明能够开发出更协调复杂的策略,并具备更好的可扩展性(即在测试阶段添加更多智能体)。据研究者所知,这是注意力通信首次成功地应用于 MARL。

图 1:ATOC 架构。

图 2:实验场景图示:协作导航(左)、协作推球(中)、捕食者-猎物(右)。

图 3:在协作导航训练期间,ATOC 奖励与基线奖励的对比。

表 1:协作导航。

图 4:ATOC 智能体之间关于协作导航的通信可视化。最右边的图片说明在有无通信时,一组智能体采取的行动。

图 5:在协作推球训练期间,ATOC 奖励与基线奖励的对比。

表 2:协作推球。

图 6:在捕食者-猎物中,ATOC 和基线的捕食者得分的交叉对比。

ATOC 算法。

论文:Learning Attentional Communication for Multi-Agent Cooperation 

论文链接:https://arxiv.org/pdf/1805.07733.pdf

摘要:通信可能是多智能体协作的一个有效途径。然而,现有方法所采用的智能体之间共享的信息或是预定义的通信架构存在问题。当存在大量智能体时,智能体很难从全局共享的信息中区分出有助于协同决策的有用信息。因此通信几乎毫无帮助甚至可能危及多智能体间的协同学习。另一方面,预定义的通信架构限定特定智能体之间的通信,因而限制了潜在的合作可能性。为了解决这些困难,本论文提出了一种注意力通信模型,它学习何时需要通信以及如何整合共享信息以进行合作决策。我们的模型给大型的多智能体协作带来了有效且高效的通信。从实验上看,我们证明了该模型在不同协作场景中的有效性,使得智能体可以开发出比现有方法更协调复杂的策略。

理论
相关数据
深度强化学习技术
Deep reinforcement learning

强化学习(Reinforcement Learning)是主体(agent)通过与周围环境的交互来进行学习。强化学习主体(RL agent)每采取一次动作(action)就会得到一个相应的数值奖励(numerical reward),这个奖励表示此次动作的好坏。通过与环境的交互,综合考虑过去的经验(exploitation)和未知的探索(exploration),强化学习主体通过试错的方式(trial and error)学会如何采取下一步的动作,而无需人类显性地告诉它该采取哪个动作。强化学习主体的目标是学习通过执行一系列的动作来最大化累积的奖励(accumulated reward)。 一般来说,真实世界中的强化学习问题包括巨大的状态空间(state spaces)和动作空间(action spaces),传统的强化学习方法会受限于维数灾难(curse of dimensionality)。借助于深度学习中的神经网络,强化学习主体可以直接从原始输入数据(如游戏图像)中提取和学习特征知识,然后根据提取出的特征信息再利用传统的强化学习算法(如TD Learning,SARSA,Q-Learnin)学习控制策略(如游戏策略),而无需人工提取或启发式学习特征。这种结合了深度学习的强化学习方法称为深度强化学习。

过拟合技术
Overfitting

过拟合是指为了得到一致假设而使假设变得过度严格。避免过拟合是分类器设计中的一个核心任务。通常采用增大数据量和测试样本集的方法对分类器性能进行评价。

规划技术
Planning

人工智能领域的「规划」通常是指智能体执行的任务/动作的自动规划和调度,其目的是进行资源的优化。常见的规划方法包括经典规划(Classical Planning)、分层任务网络(HTN)和 logistics 规划。

强化学习技术
Reinforcement learning

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

机器人技术
Robotics

机器人学(Robotics)研究的是「机器人的设计、制造、运作和应用,以及控制它们的计算机系统、传感反馈和信息处理」 [25] 。 机器人可以分成两大类:固定机器人和移动机器人。固定机器人通常被用于工业生产(比如用于装配线)。常见的移动机器人应用有货运机器人、空中机器人和自动载具。机器人需要不同部件和系统的协作才能实现最优的作业。其中在硬件上包含传感器、反应器和控制器;另外还有能够实现感知能力的软件,比如定位、地图测绘和目标识别。之前章节中提及的技术都可以在机器人上得到应用和集成,这也是人工智能领域最早的终极目标之一。

推荐文章
从监督式到DAgger,综述论文描绘模仿学习全貌
机器之心1
独家对话NIPS 2016最佳论文作者:如何打造新型强化学习观
机器之心
四万字报告:从短期到未来,这46项技术将变革商业(中)
机器之心1
返回顶部