小舟编辑

新方向!DeepMind提出人工生命框架,促进智能生物体的出现

DeepMind 提出新的研究方向,在没有明确智能体概念的情况下,用环境促进智能生物体的出现。

近日,DeepMind 的研究者提出了一种人工生命框架,旨在促进智能生物体的出现。该框架中没有明确的智能体概念,而是由原子元素构成的环境。这些元素包含神经操作,通过信息交换和环境中包含的类物理规则进行交互。研究者讨论了进化过程如何导致由许多此类原子元素构成的不同生物体的出现,这些原子元素可以在环境中共存和繁荣。此外,研究者还探讨了这如何构成通用 AI 生成算法的基础,并提供了这种系统的简化版实现,讨论了需要做哪些改进才能进一步扩大规模。

论文地址:https://arxiv.org/pdf/2101.07627.pdf

DeepMind 提出新系统

现实世界是由相互作用并组成更大实体的基本粒子构成的。DeepMind 研究提出的环境(AI 生成算法)是由元素构成的,但尺度较大。每个元素包含一个神经操作,比如矩阵乘法、外积,或者是包含这些算子的序列。这些元素通过某种形式的基本规则——一种物理类型,以及神经状态的直接通信进行彼此交互。

该系统有多种实现。这篇论文提供了网格世界(grid-world)实现,其中的基本元素位于网格上,通过传播信号或注意力机制进行通信,并与实现能量和类化学交换的底层物理进行通信。另一个例子是在三维空间中形成刚性零件的元素,这些零件可以通过连接点(joint)进行连接,连接点包含神经操作,通过与附近连接的零件交换信号来进行交互,并在连接点上设置扭矩。系统中可能存在多种类型的元素,并非所有元素内部都需要有神经网络

研究者在论文中提供了一种网格实现,突出显示了许多重要属性,并探讨了要让该系统变得强大需要进行哪些改进。

但是,该系统的潜力是无限的,它支持如下功能:

由多个元素组成的较大单元可以通过物理连接(如机器人)来形成,也可以简单地作为一组决定进行通信并形成整体的单元。这些单元的潜在大小没有限制。它们可以通过多种方式传播——通过接管环境中的其他元素来生长(殖民地),也可以通过组装新的副本进行复制,将适当的收集元素移动位置(例如机器人通过组装碎片来复制自己)或自我组装,或者它们可以生成完全不同的单元,这些单元可以实现专用的功能(一种有用的机器),或者比其前代产品更好的单元。而后者可能需要智能(intelligence)。

智能的能力

为什么说该研究提出的计算系统具有表示通用智能的能力,研究者提供了两个论点:

首先,机器学习中已有的任何神经算法,或者未来可能创建的算法,都可以写作一串操作序列,例如加法、矩阵乘法、外积和非线性运算,并在张量状态下进行操作,例如由神经网络的前向、后向和优化器操作产生的序列。AutoML-Zero 意识到了这一点,它直接搜索此类算子的序列以及与其所运行状态的连通性,并且能够学习基本的神经算法。由于这些算子是环境的基本构建元素,且能与任意连通性进行通信,因此所有的神经算法都可以在该系统中实现。

智能体假设

在该系统中,没有智能体和环境之分,只有环境。元素本身可能形成也可能不形成进化单元,进化单元的繁殖会显示出遗传性但遗传的区域并不确切。在前一种情况下,它们可以自主移动,收集能量并进行复制,形成更大的聚集体或复制生物体,因为这样做具有优势。而该研究则是针对后者,它需要最小数量的更简单协作单元进行自我传播。

SIM 的网格版本和通用属性

该论文还介绍了自组织智能物质(self-organizing intelligent matter,SIM)的实例,讨论了其各个方面,并提供了该研究认为它能够构成 AI 生成算法的更多原因。

如上文所述,这里没有内置的智能体概念,实际上只有一个环境。通常情况下,在两个不同平台上实现该系统是很不自然的:一个用于物理部分,例如物理模拟器;一个用于神经部分,如 TensorFlow、PyTorch 或 Jax 等神经网络框架。该研究建议在单个平台上制作这样的系统。要产生智能行为,需要高效地运行神经网络,因此该系统需要在后一种平台上实现。出于灵活性的考虑,该研究选择了 Jax。

Jax 在张量上运行,该研究用张量来存储元素。这些元素需要交互,并具有形成任意大小灵活聚合体的能力。

实验

该研究运行了上述系统,在一系列运行之间观察到了令人兴奋的多样性,如图 2 所示。

图 2:运行结果。上面一行中,研究者用不同颜色代表 3 种不同的随机权重

如图 2 上面一行中我们可以看到,在多个区域中,两种元素都能够稳定共存,即相同空间区域中存在不同颜色的点。并且这能持续很长时间,说明它们发现了一种共存的方式。



理论Deepmind通用人工智能
相关数据
DeepMind机构

DeepMind是一家英国的人工智能公司。公司创建于2010年,最初名称是DeepMind科技(DeepMind Technologies Limited),在2014年被谷歌收购。在2010年由杰米斯·哈萨比斯,谢恩·列格和穆斯塔法·苏莱曼成立创业公司。继AlphaGo之后,Google DeepMind首席执行官杰米斯·哈萨比斯表示将研究用人工智能与人类玩其他游戏,例如即时战略游戏《星际争霸II》(StarCraft II)。深度AI如果能直接使用在其他各种不同领域,除了未来能玩不同的游戏外,例如自动驾驶、投资顾问、音乐评论、甚至司法判决等等目前需要人脑才能处理的工作,基本上也可以直接使用相同的神经网上去学而习得与人类相同的思考力。

https://deepmind.com/
权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

注意力机制技术

我们可以粗略地把神经注意机制类比成一个可以专注于输入内容的某一子集(或特征)的神经网络. 注意力机制最早是由 DeepMind 为图像分类提出的,这让「神经网络在执行预测任务时可以更多关注输入中的相关部分,更少关注不相关的部分」。当解码器生成一个用于构成目标句子的词时,源句子中仅有少部分是相关的;因此,可以应用一个基于内容的注意力机制来根据源句子动态地生成一个(加权的)语境向量(context vector), 然后网络会根据这个语境向量而不是某个固定长度的向量来预测词。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

优化器技术

优化器基类提供了计算梯度loss的方法,并可以将梯度应用于变量。优化器里包含了实现了经典的优化算法,如梯度下降和Adagrad。 优化器是提供了一个可以使用各种优化算法的接口,可以让用户直接调用一些经典的优化算法,如梯度下降法等等。优化器(optimizers)类的基类。这个类定义了在训练模型的时候添加一个操作的API。用户基本上不会直接使用这个类,但是你会用到他的子类比如GradientDescentOptimizer, AdagradOptimizer, MomentumOptimizer(tensorflow下的优化器包)等等这些算法。

推荐文章
暂无评论
暂无评论~