DeepMind论文提出神经情景控制:可显著提速深度强化学习


DeepMind 近日在 arXiv 上发布了一篇新论文介绍了一种名叫「神经情景控制(Neural Episodic Control)」的新方法。DeepMind 创始人兼 CEO Demis Hassabis 也是该论文的作者之一。机器之心对该论文进行了摘要介绍,点此查阅

DeepMind论文提出神经情景控制:可显著提速深度强化学习

深度强化学习方法能在广泛的环境中实现超越人类的表现。这样的方法是非常低效的,要想实现合理程度的表现,所需的数据量往往比人类所需的多几个数量级。我们提出了神经情景控制(Neural Episodic Control/NEC):一种能够快速吸收新经验和基于此采取行动的深度强化学习代理。我们的代理使用了一种价值函数的半值表示(semi-tabular representation):一种过去经验的缓冲器,其包含了该价值函数的缓慢变化的状态表示和快速更新的估计。我们通过在广泛环境中的研究表明:我们的代理的学习速度可以显著快于当前最佳的通用深度强化学习代理。

神经情景控制(Neural Episodic Control)

我们的代理由三个组分构成:一个处理像素图像的卷积神经网络,一个记忆模块集合(每个动作一个模块)和一个将动作记忆的读出转换成 Q(s, a) 值的最终的网络。这里的卷积神经网络使用了和 DQN (Mnih et al., 2015) 所使用的一样的架构。

DeepMind论文提出神经情景控制:可显著提速深度强化学习

算法 1:神经情景控制(Neural Episodic Control)

DeepMind论文提出神经情景控制:可显著提速深度强化学习

图 1:在一个可微分神经词典(Differentiable Neural Dictionary)上的操作的图示

DeepMind论文提出神经情景控制:可显著提速深度强化学习

图 2:对单个动作 a 的情景记忆模块(episodic memory module)的架构。表示当前状态的像素进入通过左下方的一个卷积神经网络,然后在右上方输出 Q(s, a) 的一个估计。梯度会流过这整个架构。

DeepMind论文提出神经情景控制:可显著提速深度强化学习

图 3~图 8:不同算法在不同游戏上的学习曲线,上图为不同算法在 Ms. Pac-Man 上的学习曲线

DeepMind论文提出神经情景控制:可显著提速深度强化学习

图 10:人类标准化的游戏分数,按算法独立排序,y 轴上表示的分位数(quantiles)

入门理论论文Deepmind深度强化学习Neural Episodic ControlDemise Hassabis
2
返回顶部