Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

陈天石讲演者

WAIC 陈天石主题演讲 | 迈向人工智能的寒武纪

这次AI崛起最重要的推动力是背后的芯片技术。

报道 | 微胖

作为人工智能技术与应用的硬件载体,智能芯片的发展决定着人工智能运算能力的上限,对人工智能产业发展具有关键的引领性作用。在人工智能时代,如何把握时代机遇,打造更高性能、更低能耗的智能芯片,从而更好地推动人工智能技术不断发展,更好地推动人工智能行业改善人类的劳动生产力与生存空间,是芯片行业面临的挑战。

19 日,以「创芯引领时代,智能改变未来」为主题的分论坛在西岸艺术中心 A 馆举行。寒武纪科技 CEO 陈天石到会发表了《迈向人工智能寒武纪》主题演讲。

首先,陈天石向大家解释了公司名字寒武纪的由来。

大约 6 亿年前,在地质学上被称作「寒武纪」时代,大量无脊椎动物短时间内出现「生命大爆发」,取这个名字意喻人工智能将迎来大爆发,寒武纪自行研发的处理器将为这场大爆发提供核心物质载体。

深度学习几起几落,不过,我们今天关注的众多深度算法中,一些非常原创性的思想在上世纪 80 年代已具雏形。比如,BP 算法,对于有监督学习来说,非常重要。

AI 为什么会在这个时期落入低谷,原因有几个。

算法是其中一个原因,效果好,但无法进行数学上的严密分析;另一方面更重要的是,芯片能力无法支持大规模神经网络的运算。

在那个年代,数十个神经元就算规模比较大的网络模型了,但芯片支持不了。网络模型效果不理想,也与规模有关。或许有学者构想过大规模的神经网络模型,但当时的芯片根本不足以支撑学者去验证自己的想法,后者的潜能也因此被掩盖。

近十年,芯片能力有了大幅提升。现在有最好的 CPU 和 GPU,允许我们去尝试和验证假设。

所以,这次 AI 崛起最重要的推动力是背后的芯片技术。

从历史上看,每次出现一个新兴应用,都会有一类专用芯片诞生。

GPU 服务于图像显示以及游戏,逻辑上来看,CPU 也可以支持这样的任务。但是,只有 GPU 才能更胜任大规模、复杂化的算法。DSP 也是这样。

因此,AI 也需要专门处理器,包括智能终端处理器以及智能云服务器处理器。

在 AI 内部,我们做通用的芯片产品。人工智能领域本身是非常庞大的,要支持各种不同类型的算法应用。

那么,如何让芯片有限的空间得以支持任意规模的神经网络模型?寒武纪先行进行了探索,这也是寒武纪重要的学术原创成果。

寒武纪力图打造可以运行任意规模神经网络的处理器。为此,首先要非常熟悉面临的应用负载特征。根据分析出来的应用负载,设计灵活的指令集,

就像过去在 PC 和服务器上有 X86 指令集,移动终端有 ARM 指令集,人工智能处理器上一定有一个非常灵活、高效的指令集,可以用来解决不同类型的人工智能处理任务。

其次,需要考虑设计可扩展性强、高效的架构,使得芯片可以获得更好的性能。另外,提供适用于人工智能运算的运算器,支持主流的编程框架也很重要。

不过,对于芯片来说,最重要的是经由大规模商用后的迭代。

而在这一点上,寒武纪跑在了国内 AI 芯片创业公司的前面。

据陈天石透露,目前数以千万的智能终端使用了寒武纪的处理器。

接下来,陈天石介绍了寒武纪的一些研究成果。

未来的人工智能绝不会是单纯的云端或终端智能,一定是端云协同的,寒武纪做处理器也秉承一个思想,端和云有一样的生态、指令集和软件开发平台,使得我们在云和端之间可以灵活切换。

陈天石以前在接受经济日报采访时也曾谈到这一点,「过去大部分芯片厂商都主攻端,例如芯片巨头 ARM 公司,或是主攻云,例如英特尔公司。两者兼顾的却很少,因为端云的任务生态区别较大。但是智能时代这个局面会被全面打破。因为端和云的任务是一体的,编程和使用的生态也是一致的。作为一个通用机器学习芯片厂商,寒武纪就是要端云结合,共同推动智能芯片生态的发展。」

在 2016 年推出全球首款商用终端智能处理器 IP 产品后,今年 5 月,寒武纪也正式发布了首款云端智能芯片 MLU100 及相应的板卡产品。

我们可以看到,寒武纪的策略也很明确:智能终端方面,先做授权,云服务器方面,先满足国家层面的需求。


产业寒武纪芯片人工智能应用
相关数据
英特尔机构

英特尔(NASDAQ: INTC)是全球半导体行业的引领者,以计算和通信技术奠定全球创新基石,塑造以数据为中心的未来。我们通过精尖制造的专长,帮助保护、驱动和连接数十亿设备以及智能互联世界的基础设施 —— 从云、网络到边缘设备以及它们之间的一切,并帮助解决世界上最艰巨的问题和挑战。

http://www.intel.cn/
相关技术
寒武纪机构

寒武纪科技是一家AI芯片研发商。致力于打造各类智能云服务器、智能终端以及智能机器人的核心处理器芯片,同时还为用户提供IP授权、芯片服务、智能子卡和智能平台等服务。

www.cambricon.com
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

监督学习技术

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

暂无评论
暂无评论~