视频 | NeurIPS 2019分享:清华大学孙富春组提出全新模仿学习理论

在 NeurIPS 2019正式召开以前,机器之心精心策划了 NeurIPS 2019 专题,包括线上分享、论文解读、现场报道等内容。11月14日,第一期分享已经圆满结束。本文介绍的是「全新智能体观测模仿学习」,这是清华计算机系类脑计算与认知团队最新提出的一种学习理论,也是学界首次将生成式对抗方法推广到观测模仿学习中。

在上周四的第一期线上分享中,清华计算机系博士后黄文炳为大家详细解读了大会接收的这篇 Spotlight 论文《Imitation Learning from Observations by Minimizing Inverse Dynamics Disagreement》。

以下是本期视频回顾:

PPT下载:https://pan.baidu.com/s/1Zj59PAe4hYhDDh5zd4gWZg

引言

观测模仿学习(Imitation learning from observations)是示教学习(Learning from demonstrations,模仿学习)的前沿发展方向,目前的示教学习是在给出一定数量的专家(称为示教者)示教轨迹的前提下,通过监督学习、强化学习等机器学习方法训练智能体(称为学习者)控制策略,让智能体的行为尽可能与专家相似,进而使得智能体表现出专家行为的过程。 

模仿学习主要分为两类,一类是行为克隆(Behavioral Clone),另一类是逆强化学习(Inverse Reinforcement Learning), 标准的行为克隆方法是一类通过监督学习方法实现模仿学习的途径,是模仿学习中最简单最直观的方式,这类方法可以理解成智能体接受专家提供的示教样本并转换成状态-动作对形式,采用分类器(离散控制策略)或回归器(连续控制策略)拟合专家策略的过程。然而这类方法中智能体不进行环境交互与探索,训练的策略往往存在累积误差,而且性能受限于专家样本。

因此有更多的研究人员关注到通过逆强化学习实现示教学习问题,通过示教样本学习奖惩函数(动作好坏的规则),进而利用强化学习方法让智能体在学到的奖惩函数下探索环境并利用探索样本学习控制策略,学习性能在大多场景下往往超过行为克隆方法。

在逆强化学习实习的模仿学习中,GAIL[1] 算法首次将对抗训练机制引入模仿学习中,本文在 GAIL 的方法基础上,进一步探讨当专家示教不完备情况下如何完成模仿学习,特别是在实际机器人学习场景中最常见的【专家样本中不包含动作信息】情况,我们称这类模仿学习为观测模仿学习。本文理论上发现了观测模仿学习与常规的模仿学习之间的鸿沟差异,证明了该鸿沟差异存在优化上界,并提出了一种模型无关的优化方法。

模仿学习,特别是观测模仿学习,高效地让机器人学会人所掌握的技能或处理任务的能力,是未来智能机器人得以广泛应用的保证。

  • 论文链接:https://arxiv.org/pdf/1910.04417.pdf

  • Website:https://sites.google.com/view/neurips19-iddm/home

方法

基于逆强化学习的模仿学习代表性工作 Generative Adversarial Imitation Learning (GAIL),将对抗训练过程引入智能体模仿学习中,其中判别器用于区分智能体探索样本(Fake Sample)与专家样本(Real Sample),进而利用判别器描述的奖惩函数探索环境并通过强化学习训练智能体策略。提供专家样本为:
,其优化目标可以表示为:

其中分别表示智能体与专家的状态 (s)-动作 (a) 的占用率度量(State-Action Occupancy Measure),是刻画控制策略对应表现行为的数学统计量,对于平稳随机过程,该占用率度量为唯一确定的统计量,为计算 Kullback-Leibler (KL) 散度(文章附录部分进一步推导了 Jensen-Shannon (JS) 散度下的占用率度量逼近过程)。在 GAIL 论文中证明了最小化专家与学习者的占用率度量的 Jensen-Shannon (JS) 散度,可以有效解决模仿专家策略问题。

进一步地,当专家示教不完备情况下,考虑专家示教中不包含动作信息,即专家样本为:,观测模仿学习的一种直观地改进优化方法 GAIfO [2] 为:

该优化目标直接将状态-动作占用率度量替换为状态转移占用率度量,在后面的证明中会说明这样的优化目标仅能适用于特定的动力学系统的情形,在更多的动力学系统情况下这样的优化方法将会失效。 

具体步骤

首先,对于专家与智能体具有相同动力学系统的情形,可以证明观测模仿学习与常规的模仿学习之间存在一定的关联(证明过程请查看文章附录):

定理1:如果智能体与专家之间共享相同的动力学系统模型,那么常规的模仿学习、朴素的观测模仿学习与逆动力学系统差异之间的关联可以表示成以下形式:

其中,为专家与智能体的逆动力学系统概率分布的 KL 测度,这里称之为 Inverse dynamics disagreement(IDD), 描述二者间的逆动力学系统差异程度,根据贝叶斯公式,可以知道智能体的逆动力学系统 是与控制策略有关的,因此逆动力学系统的差异也一定程度上刻画了专家与智能体的控制策略的差异,进一步分析,当智能体动力学系统的单射变换时,可以证明: 

推论1:当动力学模型为单射变换时,朴素的观测模仿学习等效于常规的模仿学习。 

然后,建立了观测模仿学习与常规模仿学习的关系后,可以看出对于模仿学习问题,除了优化朴素的观测模仿学习目标(公式(2))外,还需要进一步去优化 IDD 这一项,可以证明 IDD 的优化上界可以表示为:

定理2:令分别代表智能体与专家的状态-动作占用率度量的信息熵,当最小化的时候:

其中,最大化信息熵可以转换成最大化策略熵与互信息 之和,具体推导可以查看论文公式(8-9)。 

最后综合上述,推导出观测模仿学习问题的优化目标为:

实验

在实验中,研究者先设计了一个 GridWorld 的导航任务,用于说明 IDD 在观测模仿学习中的存在性,如下图所示,网格中相邻位置之间的转移动作方式由 1 到 11 种变化,当只有 1 种动作转移方式的时候,也就是环境的动力学为单射变换的情况,GAIL,GAIfO 以及本研究的方法表现相当的性能,与推论 1 中的结论一致,随着相邻位置之间的转移动作方式逐渐增多时,GAIfO 的性能逐渐下降,但本项研究的方法仍能较好提升观测模仿学习效果。

图 1.(右图)三个网格实验图分别表示在导航任务中即使在相同的路线下(代表状态转移分布一样),可能出现不同的动作方式(左图)三种方法在随着转移动作种类逐渐增多过程中,表现效果的变化趋势。注:GAIL 方法中是常规的模仿学习问题,示教样本中包含动作信息,属于 GAIfO 和本方法的理论上限。

另外,研究者在 Gym 下的 Mujoco 实验中 6 个任务中进一步验证了本研究方法的模仿效果,相比于其他观测模仿学习方法(关于其他观测模仿学习方法的具体介绍,可以查看论文的 Related Work 部分),本研究方法均取得了最好效果。更多消融实验与参数敏感性分析实验可以查看论文及论文附录。

表 1. 本研究方法与基准方法在标准的 Mujoco 实验环境下的 6 种 task 的定量表现结果,所有数值均为标准任务下的 reward 定义。其中 GAIfO-s*方法是将 GAIfO 方法中的状态转移占用率度量
替换为状态占用率度量朴素观测模仿学习方法。 

图 2. 策略可视化运行结果图,左边为专家示教样本(通过强化学习训练得来),中间为朴素的观测模仿学习优化结果,右边是本研究方法的表现结果。

参考文献:

[1] Ho J, Ermon S. Generative adversarial imitation learning[C]//Advances in neural information processing systems. 2016: 4565-4573.

[2] Torabi F, Warnell G, Stone P. Generative adversarial imitation from observation[J]. arXiv preprint arXiv:1807.06158, 2018.

入门模仿学习类脑计算清华大学NeurIPS 2019
相关数据
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

对抗训练技术

对抗训练涉及两个模型的联合训练:一个模型是生成器,学习生成假样本,目标是骗过另一个模型;这另一个模型是判别器,通过对比真实数据学习判别生成器生成样本的真伪,目标是不要被骗。一般而言,两者的目标函数是相反的。

模仿学习技术

模仿学习(Imitation Learning)背后的原理是是通过隐含地给学习器关于这个世界的先验信息,就能执行、学习人类行为。在模仿学习任务中,智能体(agent)为了学习到策略从而尽可能像人类专家那样执行一种行为,它会寻找一种最佳的方式来使用由该专家示范的训练集(输入-输出对)。

推荐文章
暂无评论
暂无评论~