中国人工智能学会来源

CAAI理事长戴琼海院士《人工智能几点思考——算力、算法、测试》

11月14日至15日,由中国人工智能学会、嘉兴市人民政府主办,嘉兴市南湖区人民政府、嘉兴科技城管理委员会、浙江未来技术研究院(嘉兴)共同承办的2020第十届中国智能产业高峰论坛(CIIS 2020)在嘉兴南湖举办。在11月14日的主论坛上,国务院参事、CAAI 理事长、中国工程院院士、清华大学信息学院院长、CAAI Fellow戴琼海教授为我们带来了题为《人工智能几点思考——算力、算法、测试》的精彩演讲。


戴琼海
国务院参事、CAAI 理事长、中国工程院院士、清华大学信息学院院长、教授、CAAI Fellow
以下是戴琼海院士的演讲实录:

今天我和大家一起讨论关于人工智能本身发展里的几个问题。

首先,从历史发展的长河来看,各种时代的区别不在于生产什么,而在于怎么生产和创造,这是最重要的环节。信息时代计算机技术、微电子技术和互联网技术三大发明的诞生,使得其他学科非常迅速发展起来,包括原子能、空间技术、生物能等。人工智能现在以深度网络为代表的工具应用,使得很多地方又发生了翻天覆地的变化,带来了新的增长点。人工智能迅速地推动行业发展,对人类社会的发展做出了突出贡献。本次大会既然是产业峰会,我们先来对人工智能产业做一个分析。

我们经过了几次产业革命,来到了人工智能时代,就是数字经济的后时代。在人工智能的发展历程中,美国人工智能企业、欧洲人工智能企业和中国很多公司起到了非常重要的作用。我们分析一下人工智能在国家战略中的地位。美国非常重视人工智能,在科研经费投入方面,诸多科研方向中对人工智能领域始终保持着非常大的投入;从 2018 年国防战略,一直到 2020 白皮书的发布,人工智能在美国掀起了很大的浪潮,希望在全世界把握高科技发展的动力。从美国人工智能产业布局来看主要有几个方面,从智能搜索,包括自然语言处理、智能语音助手和智能机器人,以及无人驾驶方面形成了完整的行业生态,使得人工智能企业蓬勃发展。典型 AI 技术应用包括智能机器人、无人驾驶,代表了两个硬方向的产业智能,推动非常快;还有在无人机方面,这是他们的杀手锏,也是未来军事智能里最重要的组成部分。

人工智能在欧洲国家战略中定位与发展, 2018 年 25 个国家签署了加强《人工智能合作宣言》。欧洲人工智能整个产业布局,系统深入分析有智能芯片,包括网络安全和医疗健康作为人工智能最重要的应用领域;欧洲人工智能产业布局在工业物联网、未来交通和智能健康,这是三个重大的产业布局。

人工智能在我国战略中的定位也非常深入。2016—2020 年,中共中央五中全会专门提到人工智能、量子科学、脑科学等前沿领域,定位非常重要。习主席在九次讲话中提到人工智能对科技创新的重要作用。从人工智能产业上,我国从2019 年开始提出了新基建,最重要的环节是人工智能,而且人工智能也作为新基建的基础问题和基础设施科技创新的题目展开。所以,2020 年我国人工智能市场规模远超全球市场规模增速的水平,尤其疫情时代不减反增,这是我国人工智能发展最重要的趋势。

人工智能产业布局从基础、技术和应用,以及硬件、软件方面有很多公司开展了非常大的创新,比如智能医疗、智能金融、智慧教育、智慧交通、智能家居、智能零售等。人工智能在螺旋式上升,产业发展非常快时,学术界和产业界也一直在讨论人工智能应该怎么往更加科学、更加透明、更加理性的方向发展。我们怎么做到强人工智能,怎么提升人工智能的算力,怎么开展测试,判断未来人工智能应该具有哪些法则、规则,这是大家要考虑的事情。通过上面的产业分析,回过头来从技术角度要讨论一下我们应该做的三件事。

一、算力

人工智能发展非常快,算力伴随着人工智能出现一直都在提升和发展,相辅相成。1956 年感知机的诞生,这时候就提到算力问题;1965 年摩尔提出了摩尔定律,算力与人工智能也是相辅相成发展;1980 年专家系统;一直到 2012 年, GPU 的加速,如果没有这个加速很难为产业服务;到 2016 年,围棋 AI 在 170 个 GPU 上运行。流媒体视频占全球互联网下行流量的 58%。2019 年8 月国内互联网终端数突破了 20 亿,每月超过 20亿的注册访问量,人工智能的蓬勃发展带来了算力需求的指数增长。

从硬件的角度来看,摩尔定律在最近几年已经放缓,算力需求每三到四个月翻一番。从算力需求快速增长,到算力提升放缓,怎么去解决这个矛盾,国际上也做了各种探索。这是谷歌的TPU,神经网络专用芯片,希望用它提升算力。包括中国的地平线寒武纪等都开展了人工智能专用芯片的研究,这已经和 CPU、GPU 不在一个量级了。还包括量子计算,可不可以存算一体架构,类脑计算怎么提升,还有光电智能计算,从自然到科学都在讨论这个问题,算力如何提升。对算力提升在国际上也是一个极具需求和发展的路径。普林斯顿大学教授提到了全光计算,算力能提升3 个数量级,如果用上,功耗下降 6 个数量级。我们在提供算力的同时,功耗也在下降。其实光电计算并不是什么新东西,它和人工智能发展一样是三起三落。光计算起来时,硅基的算力就够了,后来贝尔实验室做了人工智能、做了光电计算,但是没有办法用。一直到今年光电计算才提到议事日程。以三维受控衍射传播实现全并行光速计算为例,这是一个颠覆,采集与计算无缝衔接,突破了存算分离速度制约,速度提升至少千倍,计算频次 1 THz,远超 GHz 电子计算。国际上目前有三个架构,一个是麻省理工的干涉神经网络,一个是明斯特大学和剑桥做的相变脉冲神经网络,还有清华大学做的衍射神经网络,都出现了不少研究和成果。如果光电计算实现,在无人系统中能够体现非常大的能力,尤其是光电计算的自动驾驶,因为计算量非常快,导致力度特别大;在军事武器,尤其导弹上,光电计算会使得现有的导弹速度再提升一个数量级,从而使无人系统更快、更小、更智能。现在也在研究云上的光电芯片、端侧的光电芯片,如果光电智能的芯片能研究出来,对新基建、工业互联网、计算机视觉、光通信和纳米级目标感知与识别这方面都能带来非常大的作用,也是算力提升的一个最重要的方向。

二、算法

算法牵扯到我们的核心。要让电脑像成人般下棋比较容易 , 让它把一个东西放在一个桌子上也非常简单。但是莫拉维克悖论指出,要让电脑有如1岁小孩般的感知和行动能力却是相当困难,甚至是不可能的。因此,如何实现高效,而且这个算法还能解释清楚,包括鲁棒的新一代智能,现在国内外都在研究。

脑科学对人工智能算法的启示。人工智能算法的进步都离不开脑科学的积累和呈现,包括算法层次的解释、启发卷积神经网络。Hubel 从1958 年发现简单和复杂的细胞,发现视觉系统的卷积特性。还有一类,类脑计算、脑启发、脑科学怎么做的。上面是 1907 年脉冲神经元的认知问题;1981 年美国加州提出了单板模拟百万神经元的计算,IBM 公司做了这方面的工作;直到现在,清华大学的专家都在类脑和存算一体上做了非常重要的工作。人工智能算法怎么考虑,下面这些做人工智能算法的很多科学家都是认知科学家,而不是人工智能的信息科学家;上面脑观测成果,脑科学为人工智能启示和认知科学家对人工智能的理解搭建了桥梁。

整体分析可以看到,脑科学家对信息传递机制、信息解释机制有一批获诺贝尔奖;人工智能方面,尤其是心理学家、认知科学家提出了一系列人工智能的算法,他们获得了图灵奖。所以人类如何思考和机器如何思考是有关系的,怎么建立这样一个恰当关系,是要研究的重要环节。大脑工作机理、信息的传递,工作的功耗非常低,只有 20 瓦,怎样找到新机制,找到新一代人工智能算法非常重要。从大机制来看,我们对神经细胞的理解,这时候是感知的智能。现在大部分都通过核磁共振对宏观图像理解,也就是现在提出的弱人工智能,如果把这三个打通,从微观、介观到宏观结合起来,对全脑的认知能不能做一个强认知智能。这是整体的脑科学和机理建立起来,构建一个认知桥,多模态的观测,通过先进神经技术,揭示脑结构、脑功能与智能产生的多层次关联与多模态影射机制,建立认知模型和类脑智能体系。

美国 2016 年就启动了一个阿波罗项目,1 亿美金,3 个课题组共同联合,有做机器学习,有做脑科学的,有做脑成像,有做脑机理,要做 1个立方毫米、10 万神经元的解析,把它们的连接打通。上面是神经元模型,下面是机器学习模型,能不能揭秘映射关系。尽管斑马鱼、小鼠神经元都不同,斑马鱼才有 1 千神经元,果蝇不到 10 万神经元,人类最多 8 百多亿神经元,但是它们都具有通用智能。所以通用智能怎样看待它对环节的理解,人对复杂环境的理解,斑马鱼对复杂环境的理解,生存的环境它们都能理解,因此都具备通用智能。但是完全靠它很难解释一个通用智能的诞生。最近 IBM 用果蝇通用智能方法研制了一套武器装备系统。果蝇 10 万神经元有 8 万是视觉系统。研究符合人脑进化过程的新一代人工智能理论体系能不能构建起来,这是大家要思考的问题。因此,我们对脑科学里,尤其是机理做了分析,既有记忆痕迹假设,也有海马体和记忆,一直到记忆与脑区的关系。通过记忆能不能构建起一个新的人工智能算法,这是另外一条通路,我们在做试验。

于是提出了生物机制,包括记忆环路。如果记忆环路超出界限,我们用物理的熵平衡把这个机理建模,最后能不能提出一个新的人工智能算法,这是清华提出的人工智能算法框架。这里需要反馈验证,所以提出了生物科学机制的发掘,包括数学物理机制的约束,一直到新一代神经网络,这样一个自学习的作用。这里给出一个框架,科学家希望能在这个框架下研究算法和工作。我们要做人工智能新的算法,一定要去打通脑科学机理;第二通过知识驱动和数据趋同共同构架一个架构,这是人工智能算法的初步分析。

三、测试

既然人工智能算法这样做了,现在我们一直要想到,算法好、算法坏是不是应该测试一下。所以,人工智能从 2016 年到未来这一段时间发展非常快,各种游戏、工具,以及各种与人类相关的这种工作都被人工智能取代。但是,这些东西能不能做的更好,是不是已经完结,需要做一套测试。图灵首先给出了一个测试判断人工智能的水平。第一代图灵测试进行过分析,图灵测试的提出,包括到 1986 年早期自然语言处理,到现在程序首次通过了图灵测试人工智能终于能像人类一样学习并通过了图灵测试。第二代有很多科学家都在研究图灵测试,对深度网络怎么测试,现在已经从通用测试到专用测试,具有了测试机器常识推理的能力,通过标准考试的能力。以前是给一个通用测试,70%,现在通用智能测试不能起作用,专用测试神经网络抽象推理能力。这是第二代,专用测试。

新一代图灵测试,现在讲新一代的认知智能,从专用智能要走向通用智能,以前我们所提到的图灵测试还能够测试认知智能吗?这又提出了一个新问题,也是一个新方向。我们从脑、认知、智能,人工智能理论从局部发展到全局发展,怎么做这样的测试,这是需要挖掘和发展的。如何实现具有功能识别、逻辑还能推理、认识还能决策的新一代认知智能,要达到这三个要素,我们称为新一代人工智能特征。

我们测试什么,按照功能识别、逻辑推理和认知决策这三方面测试,可以分布测试也可以整体测试,这是对新一代人工智能提出的目标和要求,给出新的测试方向。我们以前做认知智能时,微观、宏观和全脑的介观尺度观测,类脑计算技术起到很大作用,也对测试带来了新挑战。大脑的信息 80% 来自视觉,包括人类独有的语言功能,感知外界环境,理解建模外界环境,与外界环境交互,怎样做决策、记忆与学习,感知世界、理解世界是人工智能最重要的目标。从这里大家可以看到,多模态回路观测技术揭示了脑结构、脑功能与智能产生的多层次关系,所以认知测试应该是未来一个新方向。新一代图灵测试逻辑推理,功能识别到认知决策,目前部分方面国际上已经做了很多贡献,也在初步发展这条路径。希望在座的,包括科学家、包括产业界都能够在图灵测试上发掘一些力量。

最后总结一下。在算力上包括光电计算在这里起到很大作用,从算法上我们更希望能不能更接近、更逼近本原的认知计算理论与方法;第二,脑科学启发人工智能;第三,认知测试层面,能不能提出新一代图灵测试,功能识别、逻辑推理、认知决策这方面给出一个新方向。

(本报告根据速记整理)
THU数据派
THU数据派

THU数据派"基于清华,放眼世界",以扎实的理工功底闯荡“数据江湖”。发布全球大数据资讯,定期组织线下活动,分享前沿产业动态。了解清华大数据,敬请关注姐妹号“数据派THU”。

产业戴琼海
相关数据
清华大学机构

清华大学(Tsinghua University),简称“清华”,由中华人民共和国教育部直属,中央直管副部级建制,位列“211工程”、“985工程”、“世界一流大学和一流学科”,入选“基础学科拔尖学生培养试验计划”、“高等学校创新能力提升计划”、“高等学校学科创新引智计划”,为九校联盟、中国大学校长联谊会、东亚研究型大学协会、亚洲大学联盟、环太平洋大学联盟、清华—剑桥—MIT低碳大学联盟成员,被誉为“红色工程师的摇篮”。 清华大学的前身清华学堂始建于1911年,因水木清华而得名,是清政府设立的留美预备学校,其建校的资金源于1908年美国退还的部分庚子赔款。1912年更名为清华学校。1928年更名为国立清华大学。1937年抗日战争全面爆发后南迁长沙,与北京大学、南开大学组建国立长沙临时大学,1938年迁至昆明改名为国立西南联合大学。1946年迁回清华园。1949年中华人民共和国成立,清华大学进入了新的发展阶段。1952年全国高等学校院系调整后成为多科性工业大学。1978年以来逐步恢复和发展为综合性的研究型大学。

http://www.tsinghua.edu.cn/
相关技术
寒武纪机构

寒武纪科技是一家AI芯片研发商。致力于打造各类智能云服务器、智能终端以及智能机器人的核心处理器芯片,同时还为用户提供IP授权、芯片服务、智能子卡和智能平台等服务。

www.cambricon.com
IBM机构

是美国一家跨国科技公司及咨询公司,总部位于纽约州阿蒙克市。IBM主要客户是政府和企业。IBM生产并销售计算机硬件及软件,并且为系统架构和网络托管提供咨询服务。截止2013年,IBM已在全球拥有12个研究实验室和大量的软件开发基地。IBM虽然是一家商业公司,但在材料、化学、物理等科学领域却也有很高的成就,利用这些学术研究为基础,发明很多产品。比较有名的IBM发明的产品包括硬盘、自动柜员机、通用产品代码、SQL、关系数据库管理系统、DRAM及沃森。

https://www.ibm.com/us-en/
相关技术
地平线机构

地平线具有领先的人工智能算法和芯片设计能力,通过软硬结合,设计开发高性能、低成本、低功耗的边缘人工智能芯片及解决方案,开放赋能合作伙伴。面向智能驾驶和AIoT,地平线可提供超高性价比的边缘AI芯片、极致的功耗效率、开放的工具链、丰富的算法模型样例和全面的赋能服务。

horizon.ai
专家系统技术

专家系统(ES)是人工智能最活跃和最广泛的领域之一。专家系统定义为:使用人类专家推理的计算机模型来处理现实世界中需要专家作出解释的复杂问题,并得出与专家相同的结论。简言之,如图1所示,专家系统可视作“知识库(knowledge base)”和“推理机(inference machine)” 的结合。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

弱人工智能技术

弱人工智能(weak AI),也被称为窄AI,是专注于某一特定狭窄领域任务的人工智能。 相对于可以用来解决通用问题的强(泛)人工智能,几乎目前所有的人工智能都属于弱人工智能的范畴I。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

脉冲神经网络技术

第三代神经网络,脉冲神经网络(Spiking Neural Network,SNN),旨在弥合神经科学和机器学习之间的差距,使用最拟合生物神经元机制的模型来进行计算。脉冲神经网络与目前流行的神经网络和机器学习方法有着根本上的不同。SNN 使用脉冲——这是一种发生在时间点上的离散事件——而非常见的连续值。每个峰值由代表生物过程的微分方程表示出来,其中最重要的是神经元的膜电位。本质上,一旦神经元达到了某一电位,脉冲就会出现,随后达到电位的神经元会被重置。对此,最常见的模型是 Integrate-And-Fire(LIF)模型。此外,SNN 通常是稀疏连接的,并会利用特殊的网络拓扑。

逻辑推理技术

逻辑推理中有三种方式:演绎推理、归纳推理和溯因推理。它包括给定前提、结论和规则

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

卷积神经网络技术

卷积神经网路(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网路由一个或多个卷积层和顶端的全连通层(对应经典的神经网路)组成,同时也包括关联权重和池化层(pooling layer)。这一结构使得卷积神经网路能够利用输入数据的二维结构。与其他深度学习结构相比,卷积神经网路在图像和语音识别方面能够给出更好的结果。这一模型也可以使用反向传播算法进行训练。相比较其他深度、前馈神经网路,卷积神经网路需要考量的参数更少,使之成为一种颇具吸引力的深度学习结构。 卷积网络是一种专门用于处理具有已知的、网格状拓扑的数据的神经网络。例如时间序列数据,它可以被认为是以一定时间间隔采样的一维网格,又如图像数据,其可以被认为是二维像素网格。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

强人工智能技术

强人工智能或通用人工智能(Strong AI或者 Artificial General Intelligence)是具备与人类同等智慧、或超越人类的人工智能,能表现正常人类所具有的所有智能行为。强人工智能是人工智能研究的主要目标之一,同时也是科幻小说和未来学家所讨论的主要议题。相对的,弱人工智能(applied AI,narrow AI,weak AI)只处理特定的问题。弱人工智能不需要具有人类完整的认知能力,甚至是完全不具有人类所拥有的感官认知能力,只要设计得看起来像有智慧就可以了。由于过去的智能程式多是弱人工智能,发现这个具有领域的局限性,人们一度觉得强人工智能是不可能的。而强人工智能也指通用人工智能(artificial general intelligence,AGI),或具备执行一般智慧行为的能力。强人工智能通常把人工智能和意识、感性、知识和自觉等人类的特征互相连结。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

无人机技术

无人机(Uncrewed vehicle、Unmanned vehicle、Drone)或称无人载具是一种无搭载人员的载具。通常使用遥控、导引或自动驾驶来控制。可在科学研究、军事、休闲娱乐用途上使用。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

摩尔定律技术

摩尔定律是由英特尔创始人之一戈登·摩尔提出来的。其内容为:积体电路上可容纳的电晶体数目,约每隔两年便会增加一倍;经常被引用的“18个月”,是由英特尔首席执行官大卫·豪斯所说:预计18个月会将芯片的性能提高一倍。

图灵测试技术

图灵测试(英语:Turing test,又译图灵试验)是图灵于1950年提出的一个关于判断机器是否能够思考的著名试验,测试某机器是否能表现出与人等价或无法区分的智能。测试的谈话仅限于使用唯一的文本管道,例如计算机键盘和屏幕,这样的结果是不依赖于计算机把单词转换为音频的能力。

量子计算技术

量子计算结合了过去半个世纪以来两个最大的技术变革:信息技术和量子力学。如果我们使用量子力学的规则替换二进制逻辑来计算,某些难以攻克的计算任务将得到解决。追求通用量子计算机的一个重要目标是确定当前经典计算机无法承载的最小复杂度的计算任务。该交叉点被称为「量子霸权」边界,是在通向更强大和有用的计算技术的关键一步。

常识推理技术

常识推理是人工智能(AI)的一个分支,它关注模拟人类每天遇到的普通情境的类型和本质的假设。这些假设包括对人和物体的物理特性,目的,意图和行为的判断,以及他们的行为和相互作用的可能结果。展示常识推理的设备将能够预测结果并得出类似于人类民间心理学(人类对人们的行为和意图进行推理的天生能力)和天真物理学(人类对物理世界的自然理解)的结论。

围棋技术

围棋是一种策略性棋类,使用格状棋盘及黑白二色棋子进行对弈。起源于中国,中国古时有“弈”、“碁”、“手谈”等多种称谓,属琴棋书画四艺之一。西方称之为“Go”,是源自日语“碁”的发音。

暂无评论
暂无评论~