Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路

长上下文大模型帮助机器人理解世界。

最近,谷歌 DeepMind 突然开始炫起了机器人。

图片

图片

这个机器人可以轻松听从人类指令、进行视觉导览,用常识推理在三维空间中寻找路径。

它使用的是最近谷歌发布的大模型 Gemini 1.5 Pro。在使用传统 AI 模型时,机器人常因上下文长度限制而难以回忆起环境细节,但 Gemini 1.5 Pro 的百万级 token 上下文长度为机器人提供了强大的环境记忆能力。

在真实的办公室场景中,工程师引导机器人游览特定区域,并标出了需要回忆的关键地点,例如「刘易斯的办公桌」或「临时办公桌区域」。转完一圈后,别人要问起来,机器人就能根据这些记忆带他去这些地点了。即使你说不出具体要去的地点,只是表达一下目的,机器人也能带你找到对应的位置。这是大模型的推理能力在机器人身上的具体表现。 
这一切离不开一个叫 Mobility VLA 的导航策略。
图片
  • 论文标题:Mobility VLA: Multimodal Instruction Navigation with Long-Context VLMs and Topological Graphs
  • 论文链接:https://arxiv.org/pdf/2407.07775v1

DeepMind 表示,这项工作代表了人机交互的下一步。未来,用户可以简单地用智能手机拍摄他们的环境游览经历。在看过视频后,他们的个人机器人助手就能理解并在环境中导航。

Mobility VLA:利用长上下文 VLM 和拓扑图进行多模态指令导航

随着 AI 技术的不断发展,机器人导航已经取得了长足进步。早期的工作依赖于用户在预先绘制的环境中指定物理坐标。物体目标导航(ObjNav)和视觉语言导航(VLN)是机器人可用性的一大飞跃,因为它们允许用户使用开放词汇语言来定义导航目标,如「去沙发那里」。

为了让机器人在我们的日常生活中真正有用并无处不在,谷歌 DeepMind 的研究者提出将 ObjNav 和 VLN 的自然语言空间提升到多模态空间,这意味着机器人可以同时接受自然语言和 / 或图像指令,从而实现另一次飞跃。例如,一个不熟悉某栋建筑的人可以一边拿着塑料箱子一边问:「我应该把这个还到哪里去?」,机器人会根据语言和视觉上下文引导用户把箱子还到架子上。他们将这类导航任务称为多模态指示导航(MIN)。
图片
MIN 是一项广泛的任务,包括环境探索和指令引导导航。不过,在许多情况下,人们可以通过充分利用示范游览视频来绕过探索。示范游览有几个好处:

  1. 易于收集:用户可以遥控机器人,或者在环境中行走时用智能手机录制视频。此外,还有一些探索算法可用于创建导览。
  2. 它符合用户的习惯做法:当用户得到一个新的家用机器人时,自然会带着机器人在家里转转,他们可以在参观过程中口头介绍感兴趣的地点。
  3. 在某些情况下,出于安全和保护隐私的目的,限制机器人在预先设定的区域内活动是可取的。为此,作者在本文中介绍并研究了这一类任务,即「多模态指示游览导航(MINT)」,它利用示范游览,重点是满足用户的多模态指示。

最近,大型视觉语言模型(VLMs)在解决 MINT 问题上显示出巨大潜力,这得益于它们在语言、图像理解以及常识推理方面令人印象深刻的能力,这些都是实现 MINT 的关键要素。然而,单靠 VLM 难以解决 MINT 问题,原因如下:

  1. 由于上下文长度的限制,许多 VLM 的输入图像数量非常有限,这严重限制了大型环境中环境理解的保真度。
  2. 解决 MINT 问题需要计算机器人的行动。请求此类机器人动作的查询通常与 VLM(预)训练的内容不一致。因此,机器人的零样本性能往往不能令人满意。

为了解决 MINT 问题,DeepMind 提出了 Mobility VLA,这是一种分层式视觉 - 语言 - 行动(VLA)导航策略。它结合了长上下文 VLM 的环境理解和常识推理能力,以及基于拓扑图的稳健 low-level 导航策略。

具体来说,high-level VLM 使用示范游览视频和多模态用户指令来找到游览视频中的目标帧。接下来,一个经典的 low-level 策略使用目标帧和拓扑图(从游览帧中离线构建)在每个时间步生成机器人动作(航点,waypoint)。长上下文 VLM 的使用解决了环境理解的保真度问题,拓扑图则弥补了 VLM 的训练分布与解决 MINT 所需的机器人行动之间的差距。

作者在现实世界(836 平方米)的办公室和类似家庭的环境中对移动 VLA 进行了评估。在之前难以实现的涉及复杂推理(例如「我想把东西存放在公众视线之外,我该去哪里?」)和多模态用户指令的 MINT 任务上,Mobility VLA 达到了 86% 和 90% 的成功率(分别比基线方法高出 26% 和 60%)。

作者还展示了用户与机器人互动的便捷性的巨大进步,用户可以在家庭环境中使用智能手机进行带解说的视频漫游,然后询问「我的杯垫放在哪里了?」

 技术细节

Mobilit VLA 是一种分层导航策略(如图 1 所示),包括在线和离线两个部分。
图片
在离线阶段,根据示范游览(N,F)生成拓扑图 G。在在线阶段,high-level 策略通过示范游览和多模态用户指令(d,I)找到导航目标帧索引 g,该索引是一个整数,对应于游览的特定帧。下一步,low-level 策略利用拓扑图、当前摄像头观测数据(O)和 g,在每个时间步产生一个航点动作(a),供机器人执行。
图片
其中,h 和 l 分别代表 high-level 和 low-level 策略。

示范游览和离线拓扑图生成

Mobility VLA 利用环境示范游览来解决 MINT 问题。这种游览可以由人类用户通过远程操作进行,也可以在环境中行走时用智能手机录制视频。

然后,Mobility VLA 会离线构建拓扑图 G = (V,E),其中每个顶点 v_i∈V 都对应演示游览视频 (F, N) 中的帧 f_i。作者使用 COLMAP(一种现成的运动结构管道)来确定每帧的近似 6 自由度相机姿态,并将其存储在顶点中。接下来,如果目标顶点位于源顶点的「前方」(与源顶点的姿态相差小于 90 度),且距离在 2 米以内,则会在 G 中添加一条有向边。

与传统的导航 pipeline(例如绘制环境地图、识别可穿越区域,然后构建 PRM)相比,拓扑图方法要简单得多,因为它能根据游览轨迹捕捉环境的一般连通性。

基于长上下文多模态 VLM 的 High-Level 目标寻找

在在线执行过程中,high-level 策略利用 VLM 的常识推理能力,从示范游览中确定一个导航目标,以满足各种多模态、口语化且往往含糊不清的用户指令。为此,研究者准备了一个由文字和图像交错组成的提示 P (F,N,d,I)。下面是多模态用户指令的一个具体例子,对应的是表 1 中的一个问题 ——「Where should I return this?」。
You are a robot operating in a building and your task is to respond to the user command about going to a specific location by finding the closest frame in the tour video to navigate to . These frames are from the tour of the building last year . [ Frame 1 Image f1] Frame 1. [ Frame narrative n1] ... [ Frame k Image fk ] Frame k . [ Frame narrative nk ] This image is what you see now . You may or may not see the user in this image . [ Image Instruction I]
 The user says : Where should I return this ? How would you respond ? Can you find the closest frame ?
图片
VLM 返回一个整数目标帧索引 g。

利用拓扑图实现 low-level 目标

一旦 high-level 策略确定了目标帧索引 g,low-level 策略(算法 1)就会接手,并在每个时间步产生一个航点动作(公式 1)。
图片
在每个时间步中,作者使用实时分层视觉定位系统,利用当前相机观测值 O 估算机器人的姿态 T 和最近的起始顶点 v_s∈G (第 5 行)。该定位系统通过全局描述符在 G 中找到 k 个最近的候选帧,然后通过 PnP 计算 T。接下来,通过 Dijkstra 算法(第 9 行)确定 v_s 与目标顶点 v_g(与 g 对应的顶点)之间拓扑图上的最短路径 S。最后,low-level 策略会返回一个航点动作,即 S 中下一个顶点 v_1 相对于 T 的 ∆x、∆y、∆θ(第 10 行)。

 实验结果

为了展示 Mobility VLA 的性能并进一步了解关键设计,作者设计了实验来回答以下研究问题:

  • 问题 1:在现实世界中,Mobility VLA 在 MINT 中是否表现出色?
  • 问题 2:Mobility VLA 是否会因为使用长上下文 VLM 而优于替代方案的性能?
  • 问题 3:拓扑图是否必要?VLM 能否直接产生行动?

Mobility VLA 在现实环境中有着稳健的端到端表现

1、端到端成功率高。表 2 显示,在大多数用户指令类别中,Mobility VLA 的端到端导航成功率都很高,包括以前不可行的「推理 - 要求」和「多模态」指令。

2、稳健的 low-level 目标达成。表 2 还显示了 Mobility VLA 的 low-level 目标达成策略在现实世界中的稳健性(100% 成功率)。其中的示范游览记录是在实验前几个月录制的,当时许多物体、家具和照明条件都不同。
图片
长上下文 VLM 在高级目标查找方面优于其他选择

1、Mobility VLA 优于替代方案。表 3 显示,Mobility VLA 的 high-level 目标查找成功率明显高于对比方法。鉴于 low-level 成功率为 100%,这一 high-level 目标查找成功率代表了端到端成功率。
图片
2、使用长上下文 VLM 处理高帧率游览视频是成功的关键。向非长上下文 VLM 输入大型环境的完整示范游览是一项挑战,因为每幅图像都需要数百个 token 的预算。减少输入 token 数量的一个解决方案是降低游览视频帧频,但代价是中间帧丢失。表 4 显示,随着游览帧频的降低,high-level 目标查找成功率也在降低。这并不奇怪,因为帧率较低的游览视频有时会丢失导航目标帧。此外,在比较最先进的 VLM 时,只有 Gemini 1.5 Pro 的成功率令人满意,这要归功于其长达 100 万个 token 的上下文长度。
图片
拓扑图是成功的关键

表 5 显示了 Mobility VLA 在模拟中的端到端性能与提示 VLM 直接输出航点操作的比较。0% 的端到端成功率表明,Gemini 1.5 Pro 在没有拓扑图的情况下无法实现机器人的零样本导航。根据实验,作者发现无论当前摄像头的观测结果如何,Gemini 几乎总是输出「向前移动」的航点动作。此外,当前的 Gemini 1.5 API 需要在每次推理调用时上传全部 948 幅游览图像,导致机器人每移动 1 米就需要花费 26 秒的运行时间,成本之高令人望而却步。另一方面,Mobility VLA 的 high-level  VLM 会花费 10-30 秒找到目标索引,然后机器人会使用 low-level 拓扑图导航到目标,从而形成一个高度稳健和高效(每步 0.19 秒)的系统来解决 MINT 问题。
图片
更多细节请参考原论文。
产业Mobility VLAGemini 1.5 Pro谷歌 DeepMind
相关数据
DeepMind机构

DeepMind是一家英国的人工智能公司。公司创建于2010年,最初名称是DeepMind科技(DeepMind Technologies Limited),在2014年被谷歌收购。在2010年由杰米斯·哈萨比斯,谢恩·列格和穆斯塔法·苏莱曼成立创业公司。继AlphaGo之后,Google DeepMind首席执行官杰米斯·哈萨比斯表示将研究用人工智能与人类玩其他游戏,例如即时战略游戏《星际争霸II》(StarCraft II)。深度AI如果能直接使用在其他各种不同领域,除了未来能玩不同的游戏外,例如自动驾驶、投资顾问、音乐评论、甚至司法判决等等目前需要人脑才能处理的工作,基本上也可以直接使用相同的神经网上去学而习得与人类相同的思考力。

https://deepmind.com/
查询技术

一般来说,查询是询问的一种形式。它在不同的学科里涵义有所不同。在信息检索领域,查询指的是数据库和信息系统对信息检索的精确要求

人机交互技术

人机交互,是一门研究系统与用户之间的交互关系的学问。系统可以是各种各样的机器,也可以是计算机化的系统和软件。人机交互界面通常是指用户可见的部分。用户通过人机交互界面与系统交流,并进行操作。小如收音机的播放按键,大至飞机上的仪表板、或是发电厂的控制室。

常识推理技术

常识推理是人工智能(AI)的一个分支,它关注模拟人类每天遇到的普通情境的类型和本质的假设。这些假设包括对人和物体的物理特性,目的,意图和行为的判断,以及他们的行为和相互作用的可能结果。展示常识推理的设备将能够预测结果并得出类似于人类民间心理学(人类对人们的行为和意图进行推理的天生能力)和天真物理学(人类对物理世界的自然理解)的结论。

图生成技术

根据给定信息信息生成图表。

视觉语言导航技术

视觉语言导航(VLN)是指在真实的3D环境中引导智能体执行自然语言指令的任务。

暂无评论
暂无评论~