实时人工智能:微软发布Project Brainwave预览版

随着各大公司对于数据计算的要求越来越高,实时AI成为了研究者们关注的重点。在美国西雅图举行的微软Build开发者大会上,微软发布了最新的基于FPGA的Project Brainwave预览版。Project Brainwave是一个旨在加速实时AI计算的硬件架构,能够部署在Azure云端以及边缘设备上,帮助用户实现低成本的实时AI计算。本文译自微软人工智能博客“Real-time AI: Microsoft announces preview of Project Brainwave”

编者按:随着各大公司对于数据计算的要求越来越高,实时AI成为了研究者们关注的重点。在美国西雅图举行的微软Build开发者大会上,微软发布了最新的基于FPGA的Project Brainwave预览版。Project Brainwave是一个旨在加速实时AI计算的硬件架构,能够部署在Azure云端以及边缘设备上,帮助用户实现低成本的实时AI计算。本文译自微软人工智能博客“Real-time AI: Microsoft announces preview of Project Brainwave”

本周,在美国西雅图举行的微软Build开发者大会上,微软发布了Project Brainwave预览版,并将其整合到了Azure机器学习服务中。Project Brainwave是一个旨在加速实时AI计算的硬件架构,部署在名为“现场可编程门阵列(Field Programmable Gate Array,简称FPGA)”的英特尔计算机芯片上。与最流行的行业基准相比,Project Brainwave可以将实时AI计算的延迟时间降到最小,并且成本控制在可接受的范围。Project Brainwave预览版的发布将使Azure成为最高效的AI云计算平台,也是让FPGA成为通用型平台的第一步。

Project Brainwave硬件模型

Esri是一家地理信息分析公司,每天需要处理各种来自卫星图像、视频数据流和传感器信号等异构数据。数据的处理需要高强度的密集计算,常常会导致计算延迟。

同时,Esri公司对海量数据实时处理能力的要求也越来越高。例如,公司希望从数千条视频中提取信息,对汽车、自行车、公交车、行人和其它物体进行侦测,以便了解当前的交通状况和异常情况;或者公司希望通过对卫星数据进行实时分析,来侦测受损住宅等各种不同物体。

因此,Esri公司需要借助微软Project Brainwave进行更加高效和低成本的实时AI分析

Project Brainwave预览版能为客户提供超高速图像识别能力,它还可以让用户进行基于AI的实时计算,而不用将任务进行分拆再进行单独计算。目前,Project Brainwave支持深度学习框架TensorFlow,也将支持微软认知工具包。

除了整合到Azure平台,微软还将Project Brainwave推广应用到“边缘设备”上这样用户仍然可以在不联网的情况下利用Project Brainwave获得业界领先的计算速度。不用联网的Brainwave可以被直接嵌入到生产设备中,这样计算不需要每次都在云端运行,哪怕每次只能节省很少的时间和金钱成本,也会形成累积效应,产生巨大的效益。

在必应和Azure上部署FPGA

早在Project Brainwave处于探索阶段时,FPGA就已经不算是什么新鲜事物了,但在此之前从未有人认真考虑过将它用于大规模计算。所以微软的研究团队开始着手验证FPGA用于更贴近实际场景的可行性。

最开始,Project Brainwave团队将这一技术在必应搜索引擎和Azure云中进行落地。

微软高级研究员、Brainwave项目技术负责人Eric Chung表示,必应必须是一项“低延迟”的服务——当用户在必应搜索框中输入搜索查询时,他们希望能够瞬间获得搜索结果。这意味着必应工程师要在不牺牲毫秒级响应速度的前提下不断设法提高搜索结果的质量。而与此同时,搜索引擎数据库中的数据,无论在数量和类型上都是在不断增加的。借助可编程硬件FPGA,团队得以将基于深层神经网络的搜索技术迅速融入到必应中,极大提升了系统返回搜索结果的速度

过去几年间,微软也一直在使用FPGA来加速Azure云计算平台


AI要实时处理海量数据

从借助FPGA实现更高效的计算处理的想法诞生,到Project Brainwave公开预览版的发布,时隔五年的时间。这段时间里,AI革命的全面爆发引发了新的巨大需求:人们希望系统能够处理文档扫描、图像信息搜寻、语音识别和对话翻译等AI任务所需的海量数据

Project Brainwave团队负责人Doug Burger而Project Brainwave刚好能够满足AI计算的需求。其硬件设计可以迅速演进,并在每次改进后能够重新映射到FPGA,满足快速变化中的AI算法要求

与其它类型的计算机芯片相比,FPGA更加灵活,可以根据AI领域的最新发展快速地进行重新编程

随着AI处理的任务越来越复杂(例如分析视频内容等非结构化数据)以及AI算法的复杂度越来越高(例如用于执行诸如“在这些视频中搜索所有关于海滨城市的镜头”等搜索指令),人们对于能够以合理成本快速处理AI任务的系统的需求只会越来越大。

提高流水线检测效率

捷普集团 (Jabil)是全球领先的电子技术解决方案提供商。每天,工人都会在流水线上将成千上万个零部件装配成产品,然后交付给客户。在这个过程中,自动光学检测系统会对这些产品进行扫描,查找出所有潜在的异常情况,随后,系统会将异常的产品送去进行手工检查。高速运转的系统要求手工检查员在几秒钟内就要判定出某件产品是否确实存在缺陷。

为了让AI能够更加快速、准确地监测图像,减少系统错误的异常警报,捷普集团与微软合作,利用微软Project Brainwave来提高AI的计算速度。此外,研究人员还在探索如何利用Project Brainwave更好地预测制造设备需要维护的时间,从而减少停产维修的时间。

从图像分析、搜索引擎到智能制造,人们对实时AI计算的需求正变得越来越多,我们希望微软Project Brainwave能够推动实时AI计算的发展,让AI带给我们更多的可能性。

微信超链接:https://mp.weixin.qq.com/s/bAPiPURZd-YsbV5PbzwpQQ

产业Project BrainwaveAzure微软FPGAEsri
相关数据
人工智能技术
Artificial Intelligence

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

神经网络技术
Neural Network

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

基准技术
baseline

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

机器学习技术
Machine Learning

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

映射技术
Mapping

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

查询技术
Query

一般来说,查询是询问的一种形式。它在不同的学科里涵义有所不同。在信息检索领域,查询指的是数据库和信息系统对信息检索的精确要求

语音识别技术
Speech Recognition

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

深度学习技术
Deep learning

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务(例如,人脸识别或面部表情识别)。 近年来监督式深度学习方法(以反馈算法训练CNN、LSTM等)获得了空前的成功,而基于半监督或非监督式的方法(如DBM、DBN、stacked autoencoder)虽然在深度学习兴起阶段起到了重要的启蒙作用,但仍处在研究阶段并已获得不错的进展。在未来,非监督式学习将是深度学习的重要研究方向,因为人和动物的学习大多是非监督式的,我们通过观察来发现世界的构造,而不是被提前告知所有物体的名字。 至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

英特尔机构
Intel

英特尔是计算创新领域的全球领先厂商,致力于拓展科技疆界,让最精彩体验成为可能。英特尔创始于1968年,已拥有近半个世纪产品创新和引领市场的经验。英特尔1971年推出了世界上第一个微处理器,后来又促进了计算机和互联网的革命,改变了整个世界的进程。如今,英特尔正转型成为一家数据公司,制定了清晰的数据战略,凭借云和数据中心、物联网、存储、FPGA以及5G构成的增长良性循环,提供独到价值,驱动日益发展的智能互联世界。英特尔专注于技术创新,同时也积极支持中国的自主创新,与产业伙伴携手推动智能互联的发展。基于明确的数据战略和智能互联全栈实力,英特尔瞄准人工智能、无人驾驶、5G、精准医疗、体育等关键领域,与中国深度合作。面向未来,英特尔致力于做中国高价值合作伙伴,在新科技、新经济、新消费三个方面,着力驱动产业协同创新,为实体经济增值,促进消费升级。

涉及领域
张量技术
Tensor

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

TensorFlow技术
TensorFlow

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

云计算技术
Cloud Computing

云计算(英语:cloud computing),是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需求提供给计算机各种终端和其他设备。

微软研究院AI头条
微软研究院AI头条

微软亚洲研究院是微软公司在亚太地区设立的研究机构,也是微软在美国本土以外规模最大的一个。从1998年建院至今, 通过从世界各地吸纳而来的专家学者们的鼎力合作,微软亚洲研究院已经发展成为世界一流的计算机基础及应用研究机构,致力于推动整个计算机科学领域的前沿技术发展,并将最新研究成果快速转化到微软全球及中国本地的关键产品中,帮助消费者改善计算体验。同时,微软亚洲研究院着眼于下一代革命性技术的研究,助力公司实现长远发展战略和对未来计算的美好构想。

微软研究院AI头条
微软研究院AI头条

专注科研19年,盛产黑科技

推荐文章
RISC-V与DSA! 计算机架构宗师Patterson与Hennessy 演讲实录RISC-V与DSA! 计算机架构宗师Patterson与Hennessy 演讲实录
矽说矽说
从数据中自动分析死亡原因,这是东南亚国家正在流行的公共卫生策略从数据中自动分析死亡原因,这是东南亚国家正在流行的公共卫生策略
微胖微胖
银行利用 AI 发现可疑交易,恐怖组织资金或无处可遁银行利用 AI 发现可疑交易,恐怖组织资金或无处可遁
微胖微胖
返回顶部