Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

2款AI芯片、深度学习框架MindSpore:华为史无前例集中发布AI战略

今天上午,在上海举行的 2018 全联接大会上,华为轮值董事长徐直军宣布了华为的 AI 战略与全栈式解决方案,同时发布了两款全新 AI 芯片以及跨平台深度学习框架。可以说,这是近年来 BAT 等巨头高调投入 AI 之际,华为高层首次对外宣布集团层面的 AI 战略。

华为本次发布的 AI 全栈式解决方案,让这家公司成为目前全球唯一提供 AI 全栈软件和系列化芯片的提供商。同时,华为还提供了一套与之配套的统一开发框架。

华为 AI 发展战略

AI 是基础生产力,这个观点是华为通过自身的实践总结出的经验,现在华为希望把提升自身生产力的技术开放出来,供所有人使用。「自 2017 年起,华为就确定了构建万物互联的愿景,」华为轮值董事长徐直军表示。「为此,华为制定了 AI 发展战略。如同工业化革命期间的电力和铁路一样,人工智能是 21 世纪的新通用目的技术。」

徐直军表示,华为之所以强调 AI 是一种通用技术,是为了让我们正视 AI 的价值,AI 不仅能够让我们高效解决已经解决的问题,还可以解决很多未解决的问题。

华为认为,人工智能带来的改变将涉及所有行业,包括交通、教育、医疗和金融。而人工智能引发的变革才刚刚开始,目前我们正处在 AI 应用与社会环境相互碰撞的时期。在研究层面,2017 年全球发表的机器学习论文数量已经达到了 2 万余篇,目标检测、机器翻译的性能超越人类;而另一方面,只有约 4% 的企业已经投资或部署了 AI 技术,5% 的高等教育机构使用了 AI 等等,这反映出应用层面的冷静。现阶段,这种研究与应用之间的落差令人欣喜,同时选择解决正确的问题是最重要的任务。

徐直军表示,为了弥合这种研究与应用之间的差距,AI 需要以下十大改变:

华为花费很长时间介绍了目前人工智能面临的 10 大挑战。基于这十大改变,华为的 AI 发展战略包括五个方面:

  •  投资基础研究:在计算视觉、自然语言处理、决策推理等领域构筑数据高效(更少的数据需求)、能耗高效(更低的算力和能耗),安全可信、自动自治的机器学习基础能力。

  • 打造全栈方案:打造面向云、边缘和端等全场景的、独立的以及协同的、全栈解决方案,提供充裕的、经济的算力资源,简单易用、高效率、全流程的 AI 平台。

  • 投资开放生态和人才培养:面向全球,持续与学术界、产业界和行业伙伴广泛合作,打造人工智能开放生态,培养人工智能人才。

  • 解决方案增强:把 AI 思维和技术引入现有产品和服务,实现更大价值、更强竞争力。

  • 内部效率提升:应用 AI 优化内部管理,对准海量作业场景,大幅度提升内部运营效率和质量。

基于这样的考量,华为提出了自己的全栈 AI 解决方案。

全栈全场景 AI 解决方案

据介绍,华为的全栈方案具体包括:

  • Ascend: 基于统一、可扩展架构的系列化 AI IP 和 芯片,包括 Max、Mini、Lite、Tiny 和 Nano 五个系列。包括今天发布的华为昇腾 910(Ascend 910),它是目前全球已发布的单芯片中计算密度最大的 AI 芯片,还有 Ascend 310,它是目前面向计算场景最强算力的 AI SoC。

  • CANN: 芯片算子库和高度自动化算子开发工具。

  • MindSpore:支持端、边、云独立的和协同的统一训练和推理框架。

  • 应用使能:提供全流程服务(ModelArts)、分层 API 和预集成方案。

此前曝光的「达芬奇计划」旨在让 AI 技术融入华为的所有产品和业务,包括为云服务器研发的专用 AI 加速芯片,也包括 5G 技术的研发,在智能摄像头等终端设备、甚至智能驾驶上抢夺先机。

其中,华为自研的人工智能计算芯片是重中之重。「如果说算力的进步是当下 AI 大发展的主要驱动因素,那么,算力的稀缺和昂贵正在成为制约 AI 全面发展的核心因素。」徐直军表示。

今天,华为发布了两颗全新的 AI 芯片:Ascend 910 与 Ascend 310。

华为首席架构师党文栓介绍说,Ascend 芯片采用统一达芬奇架构:可扩展计算、可扩展内存、可扩展片上互联。因此,这是全球首个覆盖全场景的智能芯片系列。

AScend 910

AI 云芯片是人们关注的重点。「媒体一直在预测华为正在开发 AI 芯片,今天我要告诉你:你们的猜测是对的!」徐直军说道。

在发布会上,华为简要介绍了两款芯片的性能指标,服务器芯片昇腾(Ascend)910 采用 7nm 制程,最大功耗为 350W,算力比英伟达 Tesla V100 还要高出一倍。华为称,昇腾 910 是目前单芯片计算密度最大的芯片。华为并不像谷歌一样只在自己的服务器中使用 AI 云芯片,这款芯片将于明年二季度正式上市。

在发布芯片的同时,华为还发布了大规模分布式训练系统 Ascend 集群,在设计中,该集群将包括 1024 个 Asced 910 芯片,算力达到 256P,大幅超过英伟达 DGX2 和谷歌 TPU 集群。这种服务器将同样在 2019 年二季度推出,帮助开发者更快地训练模型。

Ascend 310

与高功耗的 910 一同推出的 Ascend 310 是昇腾迷你系列的第一款产品。据称这款芯片功耗为 8 瓦,采用 12nm 工艺,算力可达 16TFLOPS,其集成了 16 通道全高清视频解码器,具体性能见上图。

除此之外,在 2019 年华为还将发布三款昇腾 IP:Ascend Lite、Ascend Tiny、Ascend Nano。华为还将发布基于 Ascend 310 的多款 AI 产品,分别面向不同场景,如 Atlas800、MDC 600 等。

基于昇腾 310/910,华为还将提供相应的加速卡和服务器,以支持公有云、私有云服务。

华为希望提供全栈、全场景的开发平台,因此今天华为还发布了深度学习框架、算子开发工具 CANN 以及提供全流程服务的分层 API 和预集成方案。

CANN 与 AI 框架 MindSpore

在硬件之上,华为还提出了完整的软件堆栈,以实现一次性算子开发、一致的开发和调试体验。华为希望能够帮助开发者实现一次性开发,应用在所有设备端、边缘及云端平滑迁移的能力。

其中,算子库 CANN 面向人工智能不断出现的多样性算子,兼顾了高性能和高开发效率。其中的 Tensor Engine 实现了统一的 DSL 接口、自动算子优化、自动算子生成,以及自动算子调优功能。值得一提的是,华为在 Tensor Engine 中采用了陈天奇等人提出的 TVM。华为称,CANN 可以实现 3 倍的开发效率提升。

MindSpore 是华为提出的 AI 框架,与 TensorFlow、PyTorch、PaddlePaddle 等框架并列。华为认为未来的 AI 将会由任务驱动,非常个性化。随着技术发展,安全问题和算力问题成为重要挑战。欧盟推出的 GDPR 法案让很多互联网公司被迫重新规制自身业务;另一方面,自 AlexNetAlphaGo Zero,人工智能算法的算力需求也提升了 300000 倍。

MindSpore 可覆盖终端设备到云服务器的所有场景。在发布会上,华为介绍了 MindSpore 设备端深度学习框架,其容量只有不到 2m 大小,运行时占用内存不到 50m。华为表示,MindSpore 同时也支持目前所有主流深度学习框架中的模型。

在框架之上,华为还为开发者提供了更为高级的 ModelArts,这是一个机器学习 PaaS,提供全流程服务、分层分级 API 及预集成解决方案。

「AI 将重新定义应用开发,」首席战略架构师党文栓表示。「我们的 ModelArts 将支持全流程模型生产,支持人工智能条件下的开发流程。」

华为还推出了面向生产自动化的 ExeML

在兼容性方面,华为表示,目前的 Cloud EI 也支持 GPU 的开发。华为提供的预集成解决方案支持公有云和混合云环境。

在今年 8 月于重庆召开的首届智博会上,华为云 BU 总裁、华为副总裁郑叶来表示,华为将围绕「用得起、用得好、用得放心」三个方面进行深入探索,最终实现「普惠 AI」。在今天的一系列产品发布之后,相信我们已经对华为的全部愿景有所了解。

产业华为AI 芯片深度学习框架
2
相关数据
陈天奇人物

陈天奇,华盛顿大学计算机系博士生,此前毕业于上海交通大学ACM班,研究方向为大规模机器学习。陈天奇曾获得KDD CUP 2012 Track 1第一名,并开发了SVDFeature,XGBoost,cxxnet等著名机器学习工具,是最大开源分布式机器学习项目DMLC的发起人之一。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

阿尔法围棋技术

阿尔法围棋是于2014年开始由英国伦敦Google DeepMind公司开发的人工智能围棋程序。AlphaGo是第一个打败人类职业棋手的计算机程序,也是第一个打败围棋世界冠军的计算机程序,可以说是历史上最强的棋手。 技术上来说,AlphaGo的算法结合了机器学习(machine learning)和树搜索(tree search)技术,并使用了大量的人类、电脑的对弈来进行训练。AlphaGo使用蒙特卡洛树搜索(MCTS:Monte-Carlo Tree Search),以价值网络(value network)和策略网络(policy network)为指导,其中价值网络用于预测游戏的胜利者,策略网络用于选择下一步行动。价值网络和策略网络都是使用深度神经网络技术实现的,神经网络的输入是经过预处理的围棋面板的描述(description of Go board)。

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

机器翻译技术

机器翻译(MT)是利用机器的力量「自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)」。机器翻译方法通常可分成三大类:基于规则的机器翻译(RBMT)、统计机器翻译(SMT)和神经机器翻译(NMT)。

Alex网络技术

AlexNet是一个卷积神经网络的名字,最初是与CUDA一起使用GPU支持运行的,AlexNet是2012年ImageNet竞赛冠军获得者Alex Krizhevsky设计的。该网络达错误率大大减小了15.3%,比亚军高出10.8个百分点。AlexNet是由SuperVision组设计的,由Alex Krizhevsky, Geoffrey Hinton和Ilya Sutskever组成。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

推荐文章
暂无评论
暂无评论~