Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

机器之心编辑部机器之心报道

忆海原识发布类脑计算平台,下一代AI突破口到来!

近日,在 2022 WAIC AI 开发者日上,忆海原识创始人兼 CEO 任化龙发表主题演讲《类脑计算的发展与关键技术》。演讲中,他夯实细致地介绍了类脑智能的特点以及与传统技术的对比,以及忆海原识自主研发的 Ocean 类脑计算平台。


图片

以下为任化龙的演讲内容,机器之心进行了不改变原意的编辑、整理:

忆海原识专注于灵巧手和类脑智能,推动机器人产业赋能生活服务和工业生产,解放人类的生产力。

图片

忆海原识团队起源于 2007 年,当时在研发灵巧手本体,后来发现智能才是机器人最大的瓶颈。于是任化龙选择去斯坦福深造,却发现所学传统智能技术存在明显理论短板。

人工智能的突破口在哪里?答案就在人脑,不需向外索求。

深度学习已经遇到瓶颈

不可否认,人工智能发展至今已取得瞩目成就,在计算机视觉、计算机听觉、自然语言处理、自动驾驶等领域都已获商业应用,但每个领域也尚存不少短板。

计算机视觉方面,目前以深度学习为主。深度学习采用数学优化作为内核,需要大量样本训练,泛化能力较弱,不能对事物、情景抽象概括理解,例如不能理解左图中奥巴马的搞笑举动。

计算机听觉方面,假设在一个非常嘈杂的鸡尾酒会上,很多人在说话,夹杂着觥筹交错的酒杯声。那么,你怎么主动选择听哪个声音呢?这就是主动注意力。还有像人的说话、唱歌有音色和音调,甚至说话过程中有语气等,这些为传统智能技术所忽略。

至于服务机器人,目前缺少灵巧的手,所以没办法进行灵巧操作。而运动规划仍需要给定轨迹或者给出精确的目标坐标(X、Y、Z)。机器人无法自己进行决策,也不具备像人一样的情景记忆。

自动驾驶就更不用说了,在封闭场景还好,但是到了开放环境仍然面临一系列挑战,包括可解释性和鲁棒性较弱、复杂路况下适应能力弱、需要大量重复训练但性能提高有限等。

可见,目前人工智能感知能力有限,更不要说认知能力,深度学习确实遇到了瓶颈

图片

图片

从生物脑到类脑计算

前面提到了好多次认知,那什么是认知呢?我先抛出一个问题,谁还能记得上一个演讲的全部内容、全部画面,甚至每一句话?大家应该记不得了,因为人并不是像摄像头一样把每一段情景都录下来。

但是如果让你总结概括,是不是可以呢?比如你可以用少于 10 句话去概括,甚至可以进一步精简到用一句话概括。这就是认知。学习和记忆、抽象和归纳就是人有的认知,这些对于机器人以及计算机来说仍然非常困难

人脑的认知行为是非常灵活的,比如下图中五官的位置关系是怎样的,是不是已经错乱了,没有准确的顺序?再看它的色调和纹理,跟真实的人脸也有区别吗?那么我们把它识别成什么呢?

如果从这幅画的作者来讲,我们知道它是毕加索的一副名画;从内容上讲,我们知道这是一张扭曲的人脸。如果想要识别它扭曲在哪里,可能是鼻子和眼睛的位置是错乱的。所以,我们对任何一个确定的输入,识别理解成什么样取决于认知需要。这种多元化的解读就是人脑的认知所带来的灵活性,这些也是目前人工智能所不具备的

图片

人工智能怎么突破前述瓶颈呢?天地宇宙赋予我们人身,古人通过内观发现人的身体有气脉,因而发展出了中医,而人的大脑是目前唯一的通用智能系统,因此大脑是最好的设计蓝本,我们应该向内借鉴,不需向外求索。

借鉴生物脑的智能技术可以用在视觉、听觉、语言、理解、决策、运动控制等各个维度,解决服务机器人和自动驾驶的关键瓶颈。从这个思路可以演变出很多具有相关性,但又有一些不同的学科和技术路线。

图片

那么类脑计算是什么呢?它是由生物脑启发的人工智能技术,强调实用,不追求把大脑中每一个生物细节都进行模拟,具有广阔应用前景。

脑仿真就是一种精细度较高的模拟,不一定追求实用,更多的是探求生物物理层面的机理。

神经拟态芯片,利用介于数字和模拟混合信号的方式来实现人工神经元,集成进芯片里,大幅度节省芯片的功耗。

计算神经科学可以看作是类脑计算的前身,它大量使用数理方法对脑机制进行理解,很多模型都是抽象的,不一定追求实用。

脑机接口也是近些年兴起的领域,主要解决人和机器、大脑和机器之间的交互。

下图提供了一目了然的对比:类脑计算可以通过算法、软件、硬件实现;神经拟态芯片如 IBM 的 TrueNorth;脑仿真如欧盟的人类脑计划,通过对多种生物脑中特定脑区的脑切片进行重构得到脑模拟模型;计算神经科学如经典的脉冲神经元模型和传统脉冲神经网络;脑机接口如马斯克的 Neuralink。

图片

类脑计算如何借鉴大脑呢?它有两个关键特征,一个是技术特征,另一个是应用面。技术特征上高度借鉴了生物脑中关键的生物机制,比如不再使用深度神经元模型,而是使用脉冲神经元模型,甚至比脉冲神经元更复杂的模型。

类脑计算的学习机制也不再依赖数学优化,无需误差反传和梯度下降,而主要利用可塑性进行训练,由此局部性更好,学习效率更高,配合生物脑中特殊的神经环路可以快速地实现举一反三。类脑计算也不再严格区分学习和推理这两个过程,很适合实时在线学习。由脉冲神经元构建出微环路,再由微环路构建多脑区的脑网络,这样就可以实现类脑神经网络模型。

类脑计算面向的问题是更高级的认知任务,不再是简单的识别和分类。比如抽象与归纳、推理与决策、知识与常识都属于认知,想象与创造、情感、同理心、道德,甚至人特有的直觉与审美属于高级认知现象。

图片

忆海原识类脑计算体系

类脑计算具体怎么做呢?回顾忆海原识的探索历程,我们是从机器人本体开始,因为脑中包括视觉系统、记忆系统、运动控制系统在发育与训练过程中离不开人体或者说机器人本体跟外部世界的不断互动。后来逐渐积累类脑智能的理论,并在这些理论指导下逐渐实现了一系列类脑神经网络模型。再后来发现这些模型规模比较庞大,运算效率又成为新的问题,于是研发了类脑加速平台,走了一个完整的技术链条。

图片

回顾深度学习的发展历史,其实也是一样的。最早从理论出发,然后出现了多层神经网络,解决了训练问题,再然后出现了一系列关键构造(如 CNN、RNN、池化),后来又出现了诸如 Caffe、TensorFlow 等深度学习加速平台。类脑计算的发展也一样要循序渐进,一步一步扎实地走。

类脑神经网络初窥

神经网络是怎么工作的呢?我们先来看人眼视网膜,它是视觉神经通路的第一关,却又往往被传统计算机视觉所忽略

再仔细看,视网膜的内部构造非常丰富和复杂,从第一层的感光细胞到后面的双极细胞、水平细胞、无长突细胞和神经节细胞,它们分成了若干层,每层里面还有亚层。这些细胞之间进行充分的信息沟通和互动,能够产生多种重要作用,包括但不限于调整对比度、图象锐化、边缘检测和形成初步色感等。

图片

实际上,视觉的处理过程并不仅局限于视觉皮层,其实在视网膜就已开始了。下图为视网膜模型的处理效果,最左边是输入图象,中间是它提取出来的边缘,最右边形成了初步的色感(形成了三种不同的主要色调)。

这里我们只借鉴视网膜内部的生物机制就可以实现,完全不需要数学优化、误差反传和大量的训练,效果仍然很好

图片

我们再来看更高级的部分「视觉皮层」。视觉神经系统有丰富发达的机制,它的神经通路与其他脑区高度互联,比如视觉皮层可以连接到运动皮层,和空间感有关;它还连接到颞叶,对物品进行识别;它还连接到中颞叶构造(包括海马体),形成情景记忆。情景记忆又可以进行抽象和归纳,再反哺视觉皮层的训练,使视觉训练效率非常高。

图片

我们举个例子,受益于四通八达的神经通路,视觉系统可以进行丰富灵活的信息处理。如下最左图给大家一种立体感(存在视错觉);中间图有 ABC 三个位置,尤其是 A 和 B 在明亮上是同一个色阶,但在不同的阴影照度和对比下,就可能被人眼识别成不同的结果;还有最右图中有几种颜色的螺旋呢?其实如果去掉背景干扰信息,可以发现它的螺旋线只有绿色。

也就是说,人脑对立体感、明亮感、色彩感以及其他诸多种感觉都存在相对性与整体性,能够在丰富的信息空间中进行灵活处理,处理方式和结果取决于认知需要和对比。

图片

在下图中,大家可以看到远山之间存在层次感,能够分辨近景与远景。在这种图像之中,你可以结合视觉注意力选择关注的对象(即主动注意力)。人的视觉一般只对中央凹的位置(即中间部分)高度关注因而分辨率较高,周边的部分是模糊的。

人眼可以选择聚焦于远山,也可以聚焦于近景,这些都是出于认知需要而定。这些在传统人工智能中没有很好地实现,所以不够灵活,没有办法适应会纷繁变化的复杂场景

图片


再如下图示例,偏向于识别问题。图中的对象到底是牛还是鲨呢?如果用深度神经网络,可能只能识别出一个确定的结果,要么分类成某种鲨鱼,要么分类成其他结果。为什么呢?因为它是端到端的单一输入输出系统。

但是对人脑而言,认知是极其灵活的,思维存在非常多维度。头脑可以告诉你如果现在关注的是前景,虽然长得像鲨鱼的轮廓,但从纹理上看,是牛的皮肤。如果看它的头部与身体关系,则是牛头鲨身(您或许已经注意到了,这里存在经验 / 逻辑上的冲突)。如果你现在把注意力放到远景,头脑会告诉你远景是远处的山峰。

可以这么说,视觉系统具有丰富灵活的认知机制,并不像深度学习那样是端到端的单一输入输出系统

图片

Ocean 类脑计算平台

问题来了,我们如何建模这样庞大复杂的神经系统呢

1,我们发现建模过程非常烦琐,需要简化建模过程的工具。
2,神经系统分为非常多复杂的层级,最顶层有系统级、往下是环路,再往下是神经元和突触,再往下可以分解到分子和蛋白质层级。每一个层级对整体的认知需要都是有贡献的,需要实现其信息处理过程。因此,需要一个能够对各个层级进行建模的工具
3,此外,类脑神经网络往往规模很大,包括上千万甚至上亿个参数。如何在通用计算硬件上运算呢?这也需要一个运算效率很高的工具。

Ocean 类脑计算平台应运而生,最初是作为我们内部使用的工具,现在隆重地向大家介绍和推广。

Ocean 类脑计算平台分为前端、核心和后端,它把建模和硬件管理进行解耦。这样一来,神经科学家和建模人员不必关心硬件底层细节,只需专注神经网络的建模。

该平台提供了丰富的基础模型和神经机制,包括有多种类型的神经元、突触、可塑性机制,以及顺馈、反馈、循环和侧抑制等常见的环路结构,简化用户建模过程,同时支持用户自定义模型、扩展功能。该平台能够支持全尺度的建模,从最小单位的神经元、突触、树突、环路、核团到脑区。

该平台还可以支持大规模类脑神经网络的运算,通过对硬件设备的调度管理,保证高运算效率。该平台可以在异构计算器件上运行,支持 CPU、GPU 以及其他的异构计算设备。该平台可部署在个人计算机、云端服务器以及嵌入式设备上,从而为其应用和推广带来了可能,满足从研发到应用部署的全链条需求

图片

神经系统建模有哪些特点?我们发现:第一,生物神经元特性远比传统脉冲神经元特性丰富,第二,生物脑的机制远比传统人工神经网络的机制丰富。如此看来,理论、算法、模型将会持续快速更迭,并将成为常态

因此,Ocean 需要满足灵活建模的需求

图片

如左上图为一个生物神经元,它可大致分为突触、树突、胞体、轴突等几个部分。对应到模型上,每个部分都可以发生很复杂的机制,每一个机制对于最终表现出来的宏观认知效果都有不可忽视的重要作用

为满足灵活建模需要,Ocean 也相应地将神经元模型划分为突触、树突、胞体等结构(可以进一步细分和扩展)。其中,突触也可以独立建模。

再来看突触及突触可塑性,在生物学层面二者相关性很强,但又相对独立。因此 Ocean 将二者解耦,突触及突触可塑性可以分别建模,同时允许二者灵活组合。

在前述基础上,为了运算的高效以及便于管理模型 / 代码,Ocean 将神经元、突触以群组为单位划分,并提供两种基础模型描述范式:容器模型描述范式、端口模型描述范式。

下面着重介绍端口模型描述范式。一个端口模型包括模型主体和一至多个端口。其中,模型主体包括若干变量,用于表达模块 / 模型的状态(例如神经元的膜电位);端口表述了模块 / 模型与其它模块 / 模型的信息交互方式(可以用于实现突触连接)。通过端口机制,可以清晰地描述神经网络丰富而复杂的拓扑结构。

针对基础模型提供以下端口(可以按需扩展):
  • Input - 输入端口,接受输入;
  • Output - 输出端口,产生输出;
  • Reference - 引用端口,允许模块 / 模型与其它模块 / 模型的变量相互引用;
  • Connection - 连接端口,可用于实现联接权重矩阵等功能;

如下图所示:

图片

Ocean 提供了常用的神经元类型、突触类型、树突结构、可塑性机制等,并分别提供了对应的端口模型 / 容器群组。

进一步地,为了提高模型的组织能力,更灵活地管理模块,Ocean 还提出了抽象模块(AbstractModule);抽象模块可以对模型进行封装,通过代理输入端口(ProxyInput)、代理输出端口(ProxyOutput)等高级端口提供统一的输入、输出接口;抽象模块之间可以进行级联、嵌套,形成扁平结构、树状结构、多层级结构等,为模型的组织提供了灵活的管理及扩展能力,更加便于研发人员之间分工协作,将各自设计的模型组装成为更大的模型。

图片

下面给出一些经典的神经环路拓扑结构案例:

1. 神经元 - 突触 - 神经元 - 突触可塑性(上、下游神经元组一对一)

图片

2. 神经元 - 突触 - 神经元 - 突触可塑性(上、下游神经元组多对一)

图片

3. 神经元 - 突触 - 树突 - 神经元 - 突触可塑性

图片

4. 模块嵌套及复用

图片

这里介绍一个 Ocean 建模实例。下图为使用类脑神经网络针对 MNIST 手写字体进行识别。这个模型没有使用误差反传、梯度下降,只使用一定神经环路拓扑结构结合可塑性进行学习,就可以取得良好的识别效果
我们还有更多的类脑神经网络模型以及应用案例,将会在以后的发布会上陆续向大家介绍。

图片

忆海原识作为类脑计算以及机器人生态中的一份子,希望能够跟大家共同推动该领域发展,也希望大家能够持续关注。谢谢大家!

  • Ocean 类脑计算平台:ocean.yihaiyuanshi.com
  • 公司官网:https://www.yihaiyuanshi.com/

特别鸣谢:天安云谷、奇绩创坛、X-man 加速营、Nvidia Inception Program
产业分析忆海原识
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

忆海原识机构

忆海原识(Neurocean)致力于研发类脑智能和灵巧操作机器人,使科研、生产、服务进一步自动化、智能化,解放人类的双手。

推荐文章
暂无评论
暂无评论~