Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

黄继彦编辑

一文详解阿里云《人工智能红利渗透与爆发》技术趋势

在全球范围内,人工智能的应用已经非常普及。根据 Statista 预计,人工智能市场增速将保持年均50.7%的增速增长,到 2025 年,全球人工智能市场规模将高达369亿美元,随着人工智能在图像(包括人脸)识别、语音识别、工业/制造业大脑、预测分析、自动化(包括自动驾驶)等方面的能力不断提升,数字经济时代的发展与人工智能应用的推进已经密不可分,零售业、医疗健康、金融行业、交通行业、教育行业、商业服务业、安全行业、农业等行业都将被人工智能深度渗透。但对于整个人工智能产业来说,在行业领域的高度渗透性并非是全部,人工智能发展存在着其独特并持续动态变化的发展现状。上个月,阿里云研究中心联合埃森哲发布了《中国企业2020》系列报告之《人工智能红利渗透与爆发》,从投资、产业、技术等角度阐述人工智能究竟是降温还是升温。下面,本文重点解读该报告的技术趋势部分,看从实验AI到产业AI存在哪些差距。
 
一、无监督学习正在突破通用智能
 
过去十年,机器学习在图像识别、自动驾驶汽车围棋等领域取得了前所未有的进步。这些成功在很大程度上是监督学习强化学习来实现的,这两种方法都要求由人设计训练信号并传递给计算机:在监督学习的情况下,这些是“目标”(例如图像的正确标签);在强化学习的情况下,它们是成功行为的“奖励”(例如在Atari游戏中获得高分)。因此,强化学习也可以被认为是一种监督学习,这两者构成了当前机器学习的主要学习方式,也为机器学习构建了一个极限:人类训练师和数据量决定了机器学习的深度和精度。
 
很显然,机器学习如今遇到了瓶颈,无论是人类训练师还是数据量,都难以支撑机器学习更进一步地发展出高水平的人工智能,更不用提通用智能,人类和数据成为了通用智能发展的阻碍,无监督学习则是这一难题当前唯一的解决途径。
 
监督学习是一种旨在通过奖励智能体(即计算机程序)来创建自主智能以便在不考虑特定任务的情况下学习其观察到的数据的范式。换句话说,智能体是为了学习而学习。无监督学习的一个关键动机是,虽然传递给学习算法的数据拥有很丰富的内部结构(如图像、视频和文本),但用于训练的目标和奖励通常都非常稀疏(例如,标签「狗」指的是尤其多变的物种,标签「0」或「1」表示游戏中的「失败」或「成功」)。这表明算法学到的大部分内容必须包括对数据本身的理解,而不是将这种理解应用于特定任务。
 
监督学习研究的主要目标是预训练一个模型(称作“识别”或“编码”)网络,供其他任务使用。编码特征通常能够用到分类任务中:例如在ImageNet上训练会表现出很好的结果,这与监督模型非常接近。迄今为止,监督模型总是比无监督的预训练模型表现的要好。其主要原因是监督模型对数据集的特性编码的更好。但如果模型运用到其他任务,监督工作是可以减少的。在这方面,希望达到的目标是无监督训练可以提供更一般的特征,用于学习并实现其它任务。
 
目前,无监督学习主要有两类方法。第一类的典型代表是 BERT 和变分自编码器(VAE),它们使用深度神经网络重建输入。但这类方法无法很好地处理图像问题,因为网络最深层需要编码图像的细节;另一类方法由 Becker 和 Hinton 于 1992 年提出,即对一个深度神经网络训练两个副本,这样在二者的输入是同一图像的两个不同剪裁版本时,它们可以生成具备高度互信息的输出向量。这类方法的设计初衷是,使表征脱离输入的不相关细节。由于Becker 和 Hinton 使用的优化互信息方法存在一定缺陷,因此后来 Pacannaro 和 Hinton 用一个判别式目标替换了它,在该目标中一个向量表征必须在多个向量表征中选择对应的一个。

随着硬件的加速,近期表征对比学习变得流行,并被证明非常高效,但它仍然存在一个主要缺陷:要想学习具备 N bits 互信息的表征向量对,我们需要对比正确的对应向量和 2 N 个不正确的向量。2020年2月,Hinton和其团队推出的 SimCLR 无监督方法,无需类标签即可让 AI 学会视觉表示,而且可以达到有监督学习的准确度。论文作者表示,经过 ImageNet 上 1% 图片标签的微调,SimCLR 即可达到 85.8%的 Top-5 精度——在只用 AlexNet 1% 的标签的情况下性能超越后者。
 
二、实时强化学习受到追捧
 
机器学习被越来越广泛的进行应用,不仅是使用静态模型进行预测,还作为一些涉及动态实时决策的反馈环路的重要组件。这些应用提出了一组新的需求,单独地实现这些需求并没有什么难度,但是它们的组合却给现有的分布式执行框架带来了挑战:高吞吐量时的毫秒级延迟计算,在不同资源集上的任意任务图的自适应构造及执行异构核。比如用户在浏览网站时,可以根据用户历史行为数据来推送新闻。而一些新的涉及动态实施决策的业务,比如具备时效性的热点新闻,或是用户想要看点新东西,这就需要用一种新的算法来实现,即实时机器学习Real-Time Machine Learning。
 
以头条的核心技术“个性化推荐算法”为例,其核心原理就是根据用户对文章的历史行为数据反馈,进行统计挖掘和判断。比如具有相同偏好的三个用户,分别选择了自己喜欢的文章,得到最高票数的文章就会被推荐给被系统打上同一属性标签的第四个人……以此类推。不难发现,传统机器学习算法的成功,依赖于对用户的“知根知底”,需要用户不断开放自己的私人领地。而实时机器学习,更擅长对用户的当下需求体察入微,让用户在保持隐私安全感的同时,获得如沐春风的浏览体验。
 
实时机器学习是一项前沿的人工智能研究项目,2017年才由加州大学伯克利分校的研究团队发布了《Real-Time Machine Learning: The Missing Pieces》论文给出了实时机器学习应用运行于分布式系统的七大要求,并提出了一种能够满足这些要求的解决方案。实时强化学习是实时机器学习的一个分支,实时强化学习能够为推荐、营销系统带来强大的技术升级,用户反馈分钟级回流回来,在线更新模型。实时强化学习的应用领域非常广泛,比如说,新闻网站或是电商促销,每天都有新资讯、新促销,用户还在不断创造内容,可供推荐的内容既在不断累积,也在不断变化。模型的准确率来自于对数据的学习,数据变了,自然模型就要变,否则给出的智能推荐,提供的AI服务,用户肯定不满意,但如果现在还只是10-30分钟做一次的模型更新,未来能做到1分钟之内就更新一次,用户的满意度将获得极大的提高。
 
随着实时强化学习的逐渐成熟,未来商业领域能够做出效益最高的模型,效率最好的架构,而且,以后这些模型的生成都是机器自动实现的,不需要人工干预,当然,现在的人工智能还都只是“数据智能”,远未达到“知识智能”的阶段,机器还做不了基于知识推理(即缺乏常识),这是做人工智能的人未来几年要突破的方向。

三、对实时决策的需求推动边缘人工智能发展
 
近年来,随着万物互联时代的到来和无线网络的普及,网络边缘的设备数量和其产生的数据量都急剧增长。根据Cisco云指数的预测,到2021年,全球范围内将有超过500亿的终端设备,这些设备每年产生的数据总量将达到847 ZB,其中约有10%的数据需要进行计算处理。另外,智能终端设备已成为人们生活的一部分,人们对服务质量的要求有了进一步提升。在这种情况下,以云计算为代表的集中式处理模式,由于实时性不够、带宽不足等问题,将无法高效地处理边缘设备产生的数据,无法满足人们对服务质量的需求,于是边缘计算模型应运而生。
 
边缘计算是部署在边缘终端设备和云计算中心之间的一种新型计算模型。边缘计算的资源是指从数据源到云计算中心路径上的任意计算和网络资源,是一个连续系统。在该模式下,边缘设备上亦有计算。边缘计算具有几个明显的优点:首先,边缘设备处理了部分产生的临时数据,不再需要将全部数据上传至云端,只需要传输有价值的数据,这极大地减轻了网络带宽的压力,且减少了对计算存储资源的需求。其次,在靠近数据源端进行数据处理,能够大大地减少系统时延,提高服务的响应时间。
 
另一方面,人工智能的出现,具有对数据实现加速处理的特定,已成功应用于目标识别、智能搜索、语言处理、智能交通等领域。然而,由于人工智能方法包含大量的计算,当前人工智能大部分计算任务部署在云计算中心等大规模计算资源集中的平台上,这极大地限制了人工智能带给人们的便利。为此,边缘智能应声而出。边缘智能是指终端智能,它是融合网络、计算、存储、应用核心能力的开放平台,并提供边缘智能服务,满足行业数字化在敏捷连接、实时业务、数据优化、应用智能、安全与隐私保护等方面的关键需求。将智能部署在边缘设备上,可以使智能更贴近用户,更快、更好为用户地提供智能服务。
 
边缘智能不是边缘计算人工智能的简单结合,虽然目前国际上尚未建立边缘人工智能的标准架构和统一算法,但各大厂商已经开始在相关领域进行探索。谷歌、亚马逊和微软等传统云服务提供商推出了边缘人工智能服务平台,通过在终端设备本地运行预先训练好的模型进行ML(Machine Learning,机器学习)推断,将智能服务推向边缘。此外,市场上已经出现多种边缘人工智能芯片,如谷歌edge TPU、英特尔Nervana NNP、华为Ascend 910和Ascend 310等。

另外,还有很多企业都试图在智能手机、汽车甚至可穿戴设备等边缘设备上运行人工智能算法,而不是跟中心云平台或服务器通信,使得边缘设备具备了在本地处理信息的能力,并且可以更快速地对情况做出响应。边缘人工智能对消费者电子、电信、医疗影像等主流行业均有应用意义。比如说在监控摄像头上运行人脸识别、肩颈识别等人工智能算法,可以快速提供安防威胁识别,如果结合本地数据存储,则能够更进一步发现和定位安全威胁嫌疑人,此外,边缘人工智能在即时驾驶决策、婴儿监视器、无人机、机器人视觉能力(无互联网连接)等方面也具有非常积极的价值。
 
需要指出的是,边缘人工智能具有减少延迟、快速做出决策的优势,但也存在计算和存储能力受限的问题,因此边缘人工智能未来将与云端人工智能构成混合模式,从而提供更好的人工智能服务。
 
四、人工智能正变得性能更高和理解人类
 
众所周知,人工智能技术的发展需要三个要素:数据、算法和算力。今天的人工智能热潮主要是由于机器学习,特别是深度学习技术在大数据、大算力的支持下取得的巨大进展。训练深度神经网络往往需要面临三个问题:
  • 时间:训练一个 CNN 或 RNN 通常需要数周的时间。这还不算上为了达到所需的性能表现,花在定义问题以及编程深度网络时迭代成败上的数周甚至数月的时间;

  • 成本:数百美元GPU连续数周的计算成本高昂,这还没开始算上人力成本。完成一个 AI 项目往往需要要占用最优秀人才数月、一年甚或更多的时间;

  • 数据:由于缺乏足够数量的标注数据而使项目无法展开的情况比比皆是。由于无法以合理的价格获取训练数据,很多好创意被迫放弃。

因此,取得较好商业表现的多是图像处理、文本和语音识别。根据斯坦福百年研究(AI100)发布的全球“2018年人工智能指数”(AI Index)报告显示,就人工智能性能而言,“能力持续飙升”,特别是在计算机视觉等领域。通过测量广泛使用的图像训练数据库ImageNet的基准性能,该报告发现,启动可以按照最新精度对图片进行分类的模型所需的时间从“大约一小时到大约4分钟”下降在短短18个月内。

这相当于训练速度大约提高了16倍;其他领域,如对象分割,这是软件区分图像的背景和主题,在短短三年内,精度提高了72%;对于机器翻译和解析等领域,软件可以理解语法结构,更容易回答问题,准确性和熟练程度越来越高;在识别表情方面,计算机已经可以超越人类,MIT媒体实验室数据显示,对于真笑和苦笑的实验中,机器学习的成功率是92%,大幅优于人类。不过虽然情感计算已经深入生活,而要让机器人更加懂你却并非易事,还需要人机交互、心理学、认知学等多学科领域共同努力。
 
从长远看,克服速度与成本、提升人工智能性能,要从高性能计算、神经形态计算量子计算方向发展。
 
在高性能计算方面,芯片制造商以及以及谷歌等巨头正在开展竞争,争相打造深度学习专用芯片。比如NVIDIA A100 GPU和DGX SuperPOD系统当选全球AI训练领域速度最快的市售商用产品。目前,包括AWS、百度云、微软Azure和腾讯云等全球领先的云提供商都在使用A100以应对AI、数据科学和科学计算中最为复杂的挑战。其中有些正在赋能新一代的推荐系统或对话式AI应用,或进一步探索新冠病毒的治疗方法,这些都在受益第八代NVIDIA  GPU所带来的迄今为止幅度最大的性能提升。

另外两个,神经形态计算(也被称为脉冲神经网络)和量子计算看起来似乎还需要几年。但事实是商用神经形态芯片和商用量子计算机已投入应用于机器学习之中。例如,在神经形态计算芯片应用方面,BrainChip Holdings 已经在拉斯维加斯最大的赌场应用了商业安防监控系统,并且它宣称还有一些其他应用也已经交付。在拉斯维加斯,该系统的功能就是通过标准摄像头的视频流自动监控dealer的错误,该系统完全通过观察学习游戏规则;在量子计算应用方面,IBM于2019美国CES展以及IBM Think大会上,展示了目前全球唯一一台脱离实验室环境运行的量子计算机“IBM Q System One”,该量子计算机拥有20个量子位的计算力。
 
总之,神经形态计算量子计算都是很有潜力的方向,它们都有可能令深度学习甚至是新型人工智能更快地运行。
THU数据派
THU数据派

THU数据派"基于清华,放眼世界",以扎实的理工功底闯荡“数据江湖”。发布全球大数据资讯,定期组织线下活动,分享前沿产业动态。了解清华大数据,敬请关注姐妹号“数据派THU”。

产业阿里云
相关数据
英特尔机构

英特尔(NASDAQ: INTC)是全球半导体行业的引领者,以计算和通信技术奠定全球创新基石,塑造以数据为中心的未来。我们通过精尖制造的专长,帮助保护、驱动和连接数十亿设备以及智能互联世界的基础设施 —— 从云、网络到边缘设备以及它们之间的一切,并帮助解决世界上最艰巨的问题和挑战。

http://www.intel.cn/
相关技术
华为机构

华为创立于1987年,是全球领先的ICT(信息与通信)基础设施和智能终端提供商。

https://www.huawei.com/cn/
IBM机构

是美国一家跨国科技公司及咨询公司,总部位于纽约州阿蒙克市。IBM主要客户是政府和企业。IBM生产并销售计算机硬件及软件,并且为系统架构和网络托管提供咨询服务。截止2013年,IBM已在全球拥有12个研究实验室和大量的软件开发基地。IBM虽然是一家商业公司,但在材料、化学、物理等科学领域却也有很高的成就,利用这些学术研究为基础,发明很多产品。比较有名的IBM发明的产品包括硬盘、自动柜员机、通用产品代码、SQL、关系数据库管理系统、DRAM及沃森。

https://www.ibm.com/us-en/
相关技术
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

变分自编码器技术

变分自编码器可用于对先验数据分布进行建模。从名字上就可以看出,它包括两部分:编码器和解码器。编码器将数据分布的高级特征映射到数据的低级表征,低级表征叫作本征向量(latent vector)。解码器吸收数据的低级表征,然后输出同样数据的高级表征。变分编码器是自动编码器的升级版本,其结构跟自动编码器是类似的,也由编码器和解码器构成。在自动编码器中,需要输入一张图片,然后将一张图片编码之后得到一个隐含向量,这比原始方法的随机取一个随机噪声更好,因为这包含着原图片的信息,然后隐含向量解码得到与原图片对应的照片。但是这样其实并不能任意生成图片,因为没有办法自己去构造隐藏向量,所以它需要通过一张图片输入编码才知道得到的隐含向量是什么,这时就可以通过变分自动编码器来解决这个问题。解决办法就是在编码过程给它增加一些限制,迫使其生成的隐含向量能够粗略的遵循一个标准正态分布,这就是其与一般的自动编码器最大的不同。这样生成一张新图片就比较容易,只需要给它一个标准正态分布的随机隐含向量,这样通过解码器就能够生成想要的图片,而不需要给它一张原始图片先编码。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

基准技术

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

脉冲神经网络技术

第三代神经网络,脉冲神经网络(Spiking Neural Network,SNN),旨在弥合神经科学和机器学习之间的差距,使用最拟合生物神经元机制的模型来进行计算。脉冲神经网络与目前流行的神经网络和机器学习方法有着根本上的不同。SNN 使用脉冲——这是一种发生在时间点上的离散事件——而非常见的连续值。每个峰值由代表生物过程的微分方程表示出来,其中最重要的是神经元的膜电位。本质上,一旦神经元达到了某一电位,脉冲就会出现,随后达到电位的神经元会被重置。对此,最常见的模型是 Integrate-And-Fire(LIF)模型。此外,SNN 通常是稀疏连接的,并会利用特殊的网络拓扑。

数据科学技术

数据科学,又称资料科学,是一门利用数据学习知识的学科,其目标是通过从数据中提取出有价值的部分来生产数据产品。它结合了诸多领域中的理论和技术,包括应用数学、统计、模式识别、机器学习、数据可视化、数据仓库以及高性能计算。数据科学通过运用各种相关的数据来帮助非专业人士理解问题。

人脸识别技术

广义的人脸识别实际包括构建人脸识别系统的一系列相关技术,包括人脸图像采集、人脸定位、人脸识别预处理、身份确认以及身份查找等;而狭义的人脸识别特指通过人脸进行身份确认或者身份查找的技术或系统。 人脸识别是一项热门的计算机技术研究领域,它属于生物特征识别技术,是对生物体(一般特指人)本身的生物特征来区分生物体个体。

自动驾驶汽车技术

自动驾驶汽车,又称为无人驾驶汽车、电脑驾驶汽车或轮式移动机器人,是自动化载具的一种,具有传统汽车的运输能力。作为自动化载具,自动驾驶汽车不需要人为操作即能感测其环境及导航。

边缘计算技术

边缘运算(英语:Edge computing),又译为边缘计算,是一种分散式运算的架构,将应用程序、数据资料与服务的运算,由网络中心节点,移往网络逻辑上的边缘节点来处理。边缘运算将原本完全由中心节点处理大型服务加以分解,切割成更小与更容易管理的部分,分散到边缘节点去处理。边缘节点更接近于用户终端装置,可以加快资料的处理与传送速度,减少延迟。在这种架构下,资料的分析与知识的产生,更接近于数据资料的来源,因此更适合处理大数据。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

推荐系统技术

推荐系统(RS)主要是指应用协同智能(collaborative intelligence)做推荐的技术。推荐系统的两大主流类型是基于内容的推荐系统和协同过滤(Collaborative Filtering)。另外还有基于知识的推荐系统(包括基于本体和基于案例的推荐系统)是一类特殊的推荐系统,这类系统更加注重知识表征和推理。

数据库技术

数据库,简而言之可视为电子化的文件柜——存储电子文件的处所,用户可以对文件中的数据运行新增、截取、更新、删除等操作。 所谓“数据库”系以一定方式储存在一起、能予多个用户共享、具有尽可能小的冗余度、与应用程序彼此独立的数据集合。

机器翻译技术

机器翻译(MT)是利用机器的力量「自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)」。机器翻译方法通常可分成三大类:基于规则的机器翻译(RBMT)、统计机器翻译(SMT)和神经机器翻译(NMT)。

云计算技术

云计算(英语:cloud computing),是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需求提供给计算机各种终端和其他设备。

准确率技术

分类模型的正确预测所占的比例。在多类别分类中,准确率的定义为:正确的预测数/样本总数。 在二元分类中,准确率的定义为:(真正例数+真负例数)/样本总数

监督学习技术

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

情感计算技术

情感计算(也被称为人工情感智能或情感AI)是基于系统和设备的研究和开发来识别、理解、处理和模拟人的情感。它是一个跨学科领域,涉及计算机科学、心理学和认知科学(cognitive science)。在计算机领域,1995年Rosalind Picard 首次提出affective computing。研究的目的是使得情感能够模拟和计算。这个技术也可以让机器人能够理解人类的情绪状态,并且适应它们的行为,对这些情绪做出适当的反应。这是一个日渐兴起的兴欣领域

无人机技术

无人机(Uncrewed vehicle、Unmanned vehicle、Drone)或称无人载具是一种无搭载人员的载具。通常使用遥控、导引或自动驾驶来控制。可在科学研究、军事、休闲娱乐用途上使用。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

图像处理技术

图像处理是指对图像进行分析、加工和处理,使其满足视觉、心理或其他要求的技术。 图像处理是信号处理在图像领域上的一个应用。 目前大多数的图像均是以数字形式存储,因而图像处理很多情况下指数字图像处理。

神经形态计算技术

神经形态工程也称为神经形态计算,是Carver Mead在1980年代后期开发的一个概念,描述了使用包含电子模拟电路来模拟神经系统中存在的神经生物学结构的超大规模集成(VLSI)系统。 近来,神经形态(Neuromorphic)一词已被用于描述模拟、数字、混合模式模拟/数字VLSI以及实现神经系统模型(用于感知,运动控制或多感官集成)的软件系统。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

人机交互技术

人机交互,是一门研究系统与用户之间的交互关系的学问。系统可以是各种各样的机器,也可以是计算机化的系统和软件。人机交互界面通常是指用户可见的部分。用户通过人机交互界面与系统交流,并进行操作。小如收音机的播放按键,大至飞机上的仪表板、或是发电厂的控制室。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

阿里云机构

阿里云创立于2009年,是全球领先的云计算及人工智能科技公司,致力于以在线公共服务的方式,提供安全、可靠的计算和数据处理能力,让计算和人工智能成为普惠科技。 阿里云服务着制造、金融、政务、交通、医疗、电信、能源等众多领域的领军企业,包括中国联通、12306、中石化、中石油、飞利浦、华大基因等大型企业客户,以及微博、知乎、锤子科技等明星互联网公司。在天猫双11全球狂欢节、12306春运购票等极富挑战的应用场景中,阿里云保持着良好的运行纪录。 阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。 2014年,阿里云曾帮助用户抵御全球互联网史上最大的DDoS攻击,峰值流量达到每秒453.8Gb 。在Sort Benchmark 2016 排序竞赛 CloudSort项目中,阿里云以1.44$/TB的排序花费打破了AWS保持的4.51$/TB纪录。在Sort Benchmark 2015,阿里云利用自研的分布式计算平台ODPS,377秒完成100TB数据排序,刷新了Apache Spark 1406秒的世界纪录。 2018年9月22日,2018杭州·云栖大会上阿里云宣布成立全球交付中心。

https://www.aliyun.com/about?spm=5176.12825654.7y9jhqsfz.76.e9392c4afbC15r
百度智能云机构

百度是全球最大的中文搜索引擎,是一家互联网综合信息服务公司,更是全球领先的人工智能平台型公司。2000年1月1日创立于中关村,公司创始人李彦宏拥有“超链分析”技术专利,也使中国成为美国、俄罗斯、和韩国之外,全球仅有的4个拥有搜索引擎核心技术的国家之一。

http://www.baidu.com
腾讯机构

腾讯,1998年11月诞生于中国深圳,是一家以互联网为基础的科技与文化公司。我们的使命是“通过互联网服务提升人类生活品质”。腾讯秉承着 “一切以用户价值为依归”的经营理念,为亿万网民提供优质的互联网综合服务。 腾讯的战略目标是“连接一切”,我们长期致力于社交平台与数字内容两大核心业务:一方面通过微信与QQ等社交平台,实现人与人、服务及设备的智慧连接;另一方面为数以亿计的用户提供优质的新闻、视频、游戏、音乐、文学、动漫、影业等数字内容产品及相关服务。我们还积极推动金融科技的发展,通过普及移动支付等技术能力,为智慧交通、智慧零售、智慧城市等领域提供有力支持。

http://www.tencent.com/
相关技术
量子计算技术

量子计算结合了过去半个世纪以来两个最大的技术变革:信息技术和量子力学。如果我们使用量子力学的规则替换二进制逻辑来计算,某些难以攻克的计算任务将得到解决。追求通用量子计算机的一个重要目标是确定当前经典计算机无法承载的最小复杂度的计算任务。该交叉点被称为「量子霸权」边界,是在通向更强大和有用的计算技术的关键一步。

围棋技术

围棋是一种策略性棋类,使用格状棋盘及黑白二色棋子进行对弈。起源于中国,中国古时有“弈”、“碁”、“手谈”等多种称谓,属琴棋书画四艺之一。西方称之为“Go”,是源自日语“碁”的发音。

反馈环技术

反馈回路是系统输出的某些部分(或全部)用作将来操作的输入的环结构。

推荐文章
暂无评论
暂无评论~