Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

一鸣、杜伟参与

绑手指、蒙布也能行,OpenAI让机器人单手还原魔方

近日,来自 OpenAI 的研究者训练了一对神经网络,利用一只类人机械手来玩魔方。他们完全在模拟中训练神经网络,并在训练过程中使用了与训练 OpenAI Five 相同的强化学习代码和一种名为自动域随机化(Automatic Domain Randomization,ADR)的新技术。该系统可以处理训练中未遇见过的情况,例如不受各种外界干扰的影响。这表明强化学习工具不仅仅可以处理虚拟任务,而且还能够解决需要高度灵活性的真实世界问题。

借助于手臂,人类可以完全各种各样的任务。而在机器人过去 60 年的发展历程中,人类通过双手可以完成各项复杂的任务,但却需要针对每项任务设计特定的机器人。

那么,机器人是否可以像人一样玩魔方呢?自 2017 年 5 月以来,OpenAI 的研究者一直在尝试训练类人机械手来解决玩魔方问题。2017 年 7 月,他们在模拟环境下实现了机械手玩魔方。但截至 2018 年 7 月,研究者只能实现玩简单魔方。现在,他们终于实现了机械手玩魔方的目标。

单手玩魔方对于人类来说都很困难。所以,OpenAI 的技术还不是足够完善,目前,OpenAI 的技术可以让机器人解决 60% 的魔方情况,在最困难的魔方上只能解决 20%。

在机械手玩魔方的过程中,研究者还对其施加了各式各样的干扰,如戴橡胶手套、绑住食指和中指、蒙上一块布、「假长颈鹿」干扰和用笔戳等。值得欣慰的是,OpenAI 的机械手在各种干扰下依然不为所动,淡定地玩「自己的」魔方。

OpenAI 的机械手戴着橡胶手套也可以玩魔方。

机械手被绑住了食指和中指。

给机械手蒙上一块布。

OpenAI 的机械手在玩魔方时受到「假长颈鹿」的干扰,但依然紧握不松手。

用笔戳机械手。

论文地址:https://d4mucfpksywv.cloudfront.net/papers/solving-rubiks-cube.pdf

两项任务

在论文中,OpenAI 的研究者考虑了两项都使用影子灵巧手指(Shadow Dexterous Hand)的不同任务:魔方块的重定向和完成魔方。

魔方块重定向

魔方块重定向任务是为了旋转方块到期望的目标方向上。如果一个方块的旋转弧度与目标方向保持在 0.4 之内,则认为该方块旋转到了正确的方向,然后也就生成一个新的随机目标(即另一个方块也开始旋转)。

完成魔方

研究者提出利用相同的影子灵巧手指来解决魔方任务。简言之,魔方是一种内部具有 6 种自由度的益智游戏,包含 26 个通过接头和弹簧系统相连的方块。每个方块有 6 个面,可以自由旋转,从而带动整个魔方转动。如果魔方的 6 个面都成为一种颜色,则认为魔方任务完成。

图 3:方块重定向任务(左)和完成魔方任务(右)视图。

方法

研究者训练神经网络,并利用强化学习来完成魔方任务。他们在训练过程中遇到了一个最大挑战,即在模拟中需要创建足够多样化的环境,从而尽可能多地捕捉到真实世界的物理状态。摩擦力、弹性和力度这些因素对于复杂的魔方或机械手而言是难以测量和建模的,并且发现仅仅依靠域随机化是不够的。

基于此,研究者提出利用自动域随机化的方法在模拟中不断地生成越来越困难的环境。

自动域随机化(ADR)

ADR 从单一的、非随机环境开始,这里神经网络尝试学习解决魔方问题。当神经网络在任务表现上变得更好并达到了性能门槛后,随机化域的数量自动增加,使得任务变得更难解决。神经网络继续学习,直到性能达到最好,然后再增加随机化的环境,如此反复。

ADR 图示。ADR 控制环境的分布。研究者从分布中采样不同的环境数据,用于生成训练集,然后将训练集作为输入,训练策略或视觉状态评估器。

(a)研究者使用 ADR 生成模拟分布,其中使用了随机的参数,这些数据可以用于控制策略和基于视觉的状态评估器上;(b)控制策略网络收到观察到的机器人状态信息和从随机模拟中得到的奖励,使用一个循环神经网络和强化学习解决这些问题;(c)基于视觉的状态模拟器使用从随机模拟中产生的各种图像,并使用 CNN 学习预测魔方的姿态和朝向。学习过程和控制策略分离。

通过 ADR,研究者可以训练一个神经网络,用于解决真实机器人手中的魔方问题。这是因为 ADR 输入的各种环境信息可以让网络接触到各种各样的随机模拟。

(d)将模型迁移到真实世界。研究者使用三个摄像机获得魔方的姿态信息,并使用 CNN 进行处理,同时使用 3D 姿态捕捉系统获得机器人手指的位置信息。而魔方的朝向则使用同一个视觉状态评估器或 Giiker 方块——一个有着内部嵌入传感器的方法输入到策略网络中。


行为、奖励和目标

研究者在策略网络上使用了循环神经网络的架构。他们使用有着 ReLU 激活函数的全连接层作为输入层,并使用一个单层 LSTM 层进行处理。

价值网络和策略网络是分开的,但是两者有着一样的架构。研究者将 LSTM 输出映射为一个标量值。

图 12:(a)价值网络和(b)策略网络的模型架构。


视觉模型

图 13:在每一面中间有一个缺口的魔方。(a)是模拟状态;(b)是现实中的魔方。


为了模拟魔方的视觉信息,研究者使用左、上、右三个摄像机捕捉图像,然后使用 ResNet50 提取每个图像的特征。这些特征向量被展开、级联、然后输入进一个堆栈式全连接层,用于预测魔方的整体状态,包括位置、朝向和角度等。

图 14:视觉模型的架构,基于 ResNet50。

整体的架构如图所示:

图 11:通过 ADR 向(a)策略和(b)视觉网络输入环境变量,并在训练进行中不断增加 ADR 输出环境的难度。

实验结果

图 1:一个五指人手机械使用强化学习和 ADR 解决魔方问题。

表 8:块重定向策略隐藏状态在不同的 ADR 熵情况的准确率。

图 19:(a)块重定向和(b)魔方问题解决策略的测试准确率。每条折线代表不同的环境变量。


参考链接:

https://openai.com/blog/solving-rubiks-cube/

产业OpenAI计算机视觉模型框架循环神经网络机械臂
相关数据
神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

策略网络技术

在强化学习中,策略网络指一组相对稳定的关系,这些关系具有非等级和相互依赖的性质,将各个行为者(actor)联系起来。

推荐文章
暂无评论
暂无评论~