李泽南原创

「达芬奇计划」:华为云端AI战略揭秘,普惠AI让技术走下神坛

今年 7 月,海外媒体 The Information 曝光了华为神秘的「达芬奇计划」,其中包括人工智能应用和 AI 云端芯片。华为的 AI 战略会是怎样的?对于现在已经竞争激烈的 AI 市场又会产生怎样的影响?这一消息引起了人们的议论和猜测。

近日,我们从一名接近华为的消息人士处获知:华为的「达芬奇计划」确实存在,并且很可能在 10 月的全联接大会上发布该计划的详情,包括 AI 云芯片、跨平台深度学习框架的实例都可能出现在下个月举办的大会上。看来,华为即将发布的产品非常重磅。

在 2018 中国国际大数据产业博览会上,华为云 BU 总裁郑叶来提出了华为「普惠」AI 概念,为 AI 技术的发展提出了更加实用的发展方向:让 AI 高而不贵、让所有企业用户用得起、用得好、用得放心。这些新产品也将成为华为全新云端战略的重要组成部分。

「达芬奇计划」的重要一步

在这一波 AI 浪潮中,BAT、京东、今日头条等公司在人工智能领域都发出了较大声音:不论是人才投入、技术研究,还是产业应用,它们的行动都广为所知。而华为的人工智能研究一直以来都处于较为低调的状态,以至于每次有关华为 AI 动态的消息放出,都会引起业内极大的关注。

首先,是达芬奇计划。

据了解,「达芬奇」是华为内部的 AI 项目代号,但并非是最终正式发布的产品或方案名字。该项目是由华为轮值董事长徐直军带队执行。作为华为目前规模最大的新项目,这家公司已在「达芬奇」计划上投入了非常大的精力。

有迹象表明,华为即将推出的解决方案不仅是单纯的芯片,而且还将包含面向开发者的开发板、基于公有云的 AI 加速器服务,以及私有云服务器上搭载的硬件能力。所有这些产品都会配以相应的软件开发工具并同时发布。据称,届时发布的产品将非常有「震撼力」。

面向开发者打造全平台深度学习框架

在 AI 云服务领域,华为并没有先发优势。而作为后来者,华为如何能够在竞争激烈的 AI 领域站稳脚跟?据透露,华为很可能会面向开发者发布全套的人工智能软件、硬件开发平台,并在展会上向所有参会者开放。在 AI 芯片之外,深度学习框架将可能成为华为区别于其他 AI 厂商的杀手锏。

人工智能应用的开发过程中,人们经常会遇到不同客户端移植的问题。开发者需要使用神经网络框架(如 TensorFlow、PyTorch)进行建模,在云平台中进行训练。但在实际应用部署中,深度学习模型却很难利用到谷歌 TPU 等深度学习芯片的加速。

 

另一方面,人工智能算法的训练、部署和推理需要不同的硬件需求。对于开发者来说,将模型从云端迁移到手机上,总会面临大量繁杂的工作。统一的深度学习框架可以让人们从这些工作中解放出来。基于此,华为的深度学习框架将为广大 AI 开发者的工作带来更多便利。

在今年六月的全球伙伴开发者大会上,余承东提出了全面开放华为「芯-端-云」能力的愿景。华为的深度学习框架将占据其中什么样的位置?

如同谷歌、百度等科技公司一样,我们可以看到,华为正希望通过 AI 战略聚集更多开发者,并逐渐形成活跃的社区,发力打造以芯片为载体的人工智能解决方案完整开发者生态。

在未来,华为旗下全系列的产品将有可能具备统一的人工智能能力,让人们在做开发时能够实现一次开发、一次调优、一次部署,大大提升开发效率。

不过,众所周知,在深度学习神经网络框架中,谷歌的 TensorFlow 和 Facebook 的 PyTorch 已经成为主流。华为提出的框架要想在开发者社区中占据一席之地,或许还需要很多努力。

普惠 AI 战略

在 2018 中国数博会上,华为云 BU 总裁郑叶来首次提出了「普惠 AI」概念。华为认为,AI 将在未来成为一种基本生产力,AI 并不是一个简单的独立产品,更不是一个封闭系统。在华为看来,AI 技术适用于大部分的经济活动。基于这种思考,华为提出了让普通人「用得好、用得起、用得安心」的普惠 AI 概念。

AI 是基础生产力,这个观点是华为通过自身的实践总结出的经验。AI 技术已深刻地改变了华为的制造、物流和零售过程。

在郑叶来的介绍中,我们可以得知:在制造方面,华为使用云边协调的图像处理技术和深度学习智能判定,将设备成品率提升到了 99.55%,与此对应的 AOI 检测员工作量则下降了 48%;在物流方面,AI 使得例外费用下降 30%,装箱率提升 15%,运作效率提升 10%;在零售方面,AI 使得线下实现智能防冲量,线上实现智能风控,助力 CBG(华为消费者业务)手机销量几何智能变革,大大提升了零售安全。

可以看到,华为能够在近两年取得高速发展,设备销售价格越来越有竞争力,经营情况越来越好,除了注重科技研发外,在内部大力应用 AI 技术也是至关重要的因素。

现在,华为希望这些 AI 技术能够帮助所有企业提高生产效率。

AI 云芯片:众星云集的战场

作为 AI 云服务的重要部分,为深度神经网络任务专门加速的云端芯片,一直被认为是未来芯片领域的重要发展方向。随着人工智能技术的发展,各家科技公司都在加紧研发自己的 AI 云芯片。

谷歌是首个将专用云芯片大规模应用的公司,其自行研发的张量处理器(Tensor Processing Unit,TPU)于 2016 年 5 月首次面世,今天已发展至第三代,据称已在服务全球超过 10 亿用户。谷歌称,TPU 使深度神经网络(DNN)的计算速度提高了 15-30 倍,而其能耗效率比现有类似技术的 CPU 和 GPU 提高了 30-80 倍。

谷歌 TPU

虽然 TPU 是一种专用集成电路,但它适用于神经网络框架 TensorFlow 下的大量程序,驱动了谷歌数据中心的许多重要应用,其中包括图像识别、翻译、搜索和游戏。

2018 年 2 月,谷歌云 TPU 宣布向外部用户开放,其价格约为每云 TPU 每小时 6.50 美元。此举意味着这种曾支持围棋程序 AlphaGo 的强大芯片将很快成为各家科技公司开展人工智能业务的强大资源。

今年 7 月 4 日的百度 Create 开发者大会上,李彦宏也发布了属于百度的云端 AI 芯片「昆仑」系列。百度的云芯片分为两个型号:训练芯片昆仑 818-300 和推理芯片 818-100。「昆仑」采用了三星 14nm 工艺,算力可达 260Tops、内存带宽 512 GB/s;功耗则为 100 瓦特,由几万个小核心构成。百度称,这是中国第一款云端全功能 AI 芯片,也是目前为止业内设计算力最高的 AI 芯片。

除了常用深度学习算法等云端需求,百度的云芯片还能适配诸如自然语言处理、大规模语音识别自动驾驶、大规模推荐等具体终端场景的计算需求。

与其他科技巨头相比,着力发展通信产品的华为在 AI 硬件上首先推出的是移动端芯片。2017 年 9 月,华为发布了世界首款手机 AI 芯片麒麟 970,其中搭载了来自寒武纪神经网络处理单元 NPU。华为称,麒麟 970 在机器学习任务上与 CPU 相比,计算速度可提升 25 倍,能耗效率提高 50 倍。华为的多款手机,包括 Mate 10/Pro、荣耀 V10 都搭载了麒麟 970 芯片。

今年 8 月 31 日,华为发布了麒麟 980,成为了全球首款采用 7 纳米工艺的手机 AI 芯片,同时也引入了双核 NPU 设计。新款新品让手机的 AI 计算能力翻了一倍。

而据消息人士称,华为 10 月份即将发布的云端 AI 芯片,性能绝对不会比目前业界已有的其他芯片逊色。

华为在芯片和人工智能领域有着深厚的积累,目前已经发展了自己的公有云、产品平台,更有着大量搭载了 AI 芯片的终端设备。未来的云服务竞争可能会成为人工智能实力的比拼,华为希望通过 AI 建立自身云服务的核心优势。

目前看来,有关「达芬奇计划」的更多细节会在 10 月的全联接大会上公布,让我们拭目以待。

产业人工智能应用AI芯片华为
1
相关数据
今日头条机构

“今日头条”是一款基于数据挖掘技术的个性化推荐引擎产品,它为用户推荐有价值的、个性化的信息,提供连接人与信息的新型服务,是国内移动互联网领域成长最快的产品之一。

https://bytedance.com/en
寒武纪机构

寒武纪科技成立于2016年3月,是全球智能芯片领域的先行者,宗旨是打造各类智能云服务器、智能终端以及智能机器人的核心处理器芯片。公司创始人、首席执行官陈天石教授,在处理器架构和人工智能领域深耕十余年,是国内外学术界享有盛誉的杰出青年科学家,曾获国家自然科学基金委员会“优青”、CCF-Intel青年学者奖、中国计算机学会优秀博士论文奖等荣誉。团队骨干成员均毕业于国内顶尖高校,具有丰富的芯片设计开发经验和人工智能研究经验,从事相关领域研发的平均时间达七年以上。寒武纪科技是全球第一个成功流片并拥有成熟产品的智能芯片公司,拥有终端和服务器两条产品线。2016年推出的寒武纪1A处理器(Cambricon-1A)是世界首款商用深度学习专用处理器,面向智能手机、安防监控、可穿戴设备、无人机和智能驾驶等各类终端设备,在运行主流智能算法时性能功耗比全面超越CPU和GPU,与特斯拉增强型自动辅助驾驶、IBM Watson等国内外新兴信息技术的杰出代表同时入选第三届世界互联网大会评选的十五项“世界互联网领先科技成果”。目前公司与智能产业的各大上下游企业建立了良好的合作关系。在人工智能大爆发的前夜,寒武纪科技的光荣使命是引领人类社会从信息时代迈向智能时代,做支撑智能时代的伟大芯片公司。

http://www.cambricon.com/
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

阿尔法围棋技术

阿尔法围棋是于2014年开始由英国伦敦Google DeepMind公司开发的人工智能围棋程序。AlphaGo是第一个打败人类职业棋手的计算机程序,也是第一个打败围棋世界冠军的计算机程序,可以说是历史上最强的棋手。 技术上来说,AlphaGo的算法结合了机器学习(machine learning)和树搜索(tree search)技术,并使用了大量的人类、电脑的对弈来进行训练。AlphaGo使用蒙特卡洛树搜索(MCTS:Monte-Carlo Tree Search),以价值网络(value network)和策略网络(policy network)为指导,其中价值网络用于预测游戏的胜利者,策略网络用于选择下一步行动。价值网络和策略网络都是使用深度神经网络技术实现的,神经网络的输入是经过预处理的围棋面板的描述(description of Go board)。

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

张量处理器技术

张量处理器(英语:tensor processing unit,缩写:TPU)是Google为机器学习定制的专用芯片(ASIC),专为Google的深度学习框架TensorFlow而设计。 与图形处理器(GPU)相比,TPU采用低精度(8位)计算,以降低每步操作使用的晶体管数量。降低精度对于深度学习的准确度影响很小,但却可以大幅降低功耗、加快运算速度。同时,TPU使用了脉动阵列的设计,用来优化矩阵乘法与卷积运算,减少I/O操作。此外,TPU还采用了更大的片上内存,以此减少对DRAM的访问,从而更大程度地提升性能。

大数据技术技术

大数据,又称为巨量资料,指的是传统数据处理应用软件不足以处理它们的大或复杂的数据集的术语。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

图像处理技术

图像处理是指对图像进行分析、加工和处理,使其满足视觉、心理或其他要求的技术。 图像处理是信号处理在图像领域上的一个应用。 目前大多数的图像均是以数字形式存储,因而图像处理很多情况下指数字图像处理。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

推荐文章
暂无评论
暂无评论~