Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

实时人工智能:微软发布Project Brainwave预览版

随着各大公司对于数据计算的要求越来越高,实时AI成为了研究者们关注的重点。在美国西雅图举行的微软Build开发者大会上,微软发布了最新的基于FPGA的Project Brainwave预览版。Project Brainwave是一个旨在加速实时AI计算的硬件架构,能够部署在Azure云端以及边缘设备上,帮助用户实现低成本的实时AI计算。本文译自微软人工智能博客“Real-time AI: Microsoft announces preview of Project Brainwave”

编者按:随着各大公司对于数据计算的要求越来越高,实时AI成为了研究者们关注的重点。在美国西雅图举行的微软Build开发者大会上,微软发布了最新的基于FPGA的Project Brainwave预览版。Project Brainwave是一个旨在加速实时AI计算的硬件架构,能够部署在Azure云端以及边缘设备上,帮助用户实现低成本的实时AI计算。本文译自微软人工智能博客“Real-time AI: Microsoft announces preview of Project Brainwave”

本周,在美国西雅图举行的微软Build开发者大会上,微软发布了Project Brainwave预览版,并将其整合到了Azure机器学习服务中。Project Brainwave是一个旨在加速实时AI计算的硬件架构,部署在名为“现场可编程门阵列(Field Programmable Gate Array,简称FPGA)”的英特尔计算机芯片上。与最流行的行业基准相比,Project Brainwave可以将实时AI计算的延迟时间降到最小,并且成本控制在可接受的范围。Project Brainwave预览版的发布将使Azure成为最高效的AI云计算平台,也是让FPGA成为通用型平台的第一步。

Project Brainwave硬件模型

Esri是一家地理信息分析公司,每天需要处理各种来自卫星图像、视频数据流和传感器信号等异构数据。数据的处理需要高强度的密集计算,常常会导致计算延迟。

同时,Esri公司对海量数据实时处理能力的要求也越来越高。例如,公司希望从数千条视频中提取信息,对汽车、自行车、公交车、行人和其它物体进行侦测,以便了解当前的交通状况和异常情况;或者公司希望通过对卫星数据进行实时分析,来侦测受损住宅等各种不同物体。

因此,Esri公司需要借助微软Project Brainwave进行更加高效和低成本的实时AI分析

Project Brainwave预览版能为客户提供超高速图像识别能力,它还可以让用户进行基于AI的实时计算,而不用将任务进行分拆再进行单独计算。目前,Project Brainwave支持深度学习框架TensorFlow,也将支持微软认知工具包。

除了整合到Azure平台,微软还将Project Brainwave推广应用到“边缘设备”上这样用户仍然可以在不联网的情况下利用Project Brainwave获得业界领先的计算速度。不用联网的Brainwave可以被直接嵌入到生产设备中,这样计算不需要每次都在云端运行,哪怕每次只能节省很少的时间和金钱成本,也会形成累积效应,产生巨大的效益。

在必应和Azure上部署FPGA

早在Project Brainwave处于探索阶段时,FPGA就已经不算是什么新鲜事物了,但在此之前从未有人认真考虑过将它用于大规模计算。所以微软的研究团队开始着手验证FPGA用于更贴近实际场景的可行性。

最开始,Project Brainwave团队将这一技术在必应搜索引擎和Azure云中进行落地。

微软高级研究员、Brainwave项目技术负责人Eric Chung表示,必应必须是一项“低延迟”的服务——当用户在必应搜索框中输入搜索查询时,他们希望能够瞬间获得搜索结果。这意味着必应工程师要在不牺牲毫秒级响应速度的前提下不断设法提高搜索结果的质量。而与此同时,搜索引擎数据库中的数据,无论在数量和类型上都是在不断增加的。借助可编程硬件FPGA,团队得以将基于深层神经网络的搜索技术迅速融入到必应中,极大提升了系统返回搜索结果的速度

过去几年间,微软也一直在使用FPGA来加速Azure云计算平台


AI要实时处理海量数据

从借助FPGA实现更高效的计算处理的想法诞生,到Project Brainwave公开预览版的发布,时隔五年的时间。这段时间里,AI革命的全面爆发引发了新的巨大需求:人们希望系统能够处理文档扫描、图像信息搜寻、语音识别和对话翻译等AI任务所需的海量数据

Project Brainwave团队负责人Doug Burger而Project Brainwave刚好能够满足AI计算的需求。其硬件设计可以迅速演进,并在每次改进后能够重新映射到FPGA,满足快速变化中的AI算法要求

与其它类型的计算机芯片相比,FPGA更加灵活,可以根据AI领域的最新发展快速地进行重新编程

随着AI处理的任务越来越复杂(例如分析视频内容等非结构化数据)以及AI算法的复杂度越来越高(例如用于执行诸如“在这些视频中搜索所有关于海滨城市的镜头”等搜索指令),人们对于能够以合理成本快速处理AI任务的系统的需求只会越来越大。

提高流水线检测效率

捷普集团 (Jabil)是全球领先的电子技术解决方案提供商。每天,工人都会在流水线上将成千上万个零部件装配成产品,然后交付给客户。在这个过程中,自动光学检测系统会对这些产品进行扫描,查找出所有潜在的异常情况,随后,系统会将异常的产品送去进行手工检查。高速运转的系统要求手工检查员在几秒钟内就要判定出某件产品是否确实存在缺陷。

为了让AI能够更加快速、准确地监测图像,减少系统错误的异常警报,捷普集团与微软合作,利用微软Project Brainwave来提高AI的计算速度。此外,研究人员还在探索如何利用Project Brainwave更好地预测制造设备需要维护的时间,从而减少停产维修的时间。

从图像分析、搜索引擎到智能制造,人们对实时AI计算的需求正变得越来越多,我们希望微软Project Brainwave能够推动实时AI计算的发展,让AI带给我们更多的可能性。

微信超链接:https://mp.weixin.qq.com/s/bAPiPURZd-YsbV5PbzwpQQ

微软研究院AI头条
微软研究院AI头条

专注科研19年,盛产黑科技

产业Project BrainwaveAzure微软FPGAEsri
相关数据
英特尔机构

英特尔(NASDAQ: INTC)是全球半导体行业的引领者,以计算和通信技术奠定全球创新基石,塑造以数据为中心的未来。我们通过精尖制造的专长,帮助保护、驱动和连接数十亿设备以及智能互联世界的基础设施 —— 从云、网络到边缘设备以及它们之间的一切,并帮助解决世界上最艰巨的问题和挑战。

http://www.intel.cn/
相关技术
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

基准技术

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

云计算技术

云计算(英语:cloud computing),是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需求提供给计算机各种终端和其他设备。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

查询技术

一般来说,查询是询问的一种形式。它在不同的学科里涵义有所不同。在信息检索领域,查询指的是数据库和信息系统对信息检索的精确要求

推荐文章
暂无评论
暂无评论~