仅售99美元:英伟达GTC上发布「最小 AI 计算机」,学生福利已来

虽然在图像计算市场上独占鳌头,并引领了最近一次深度学习浪潮,但英伟达仍在不断寻求开拓新领域。在刚刚结束的 GTC 2019 大会上,这家公司推出了 RTX Server、Data Science Server、Jetson Nano 等全新计算设备,以及大量软件工具,试图把自己的业务扩展到数据科学和超小型 IoT 设备等方面。

这已是英伟达举办的第十届 GTC,只可惜今天还是没有人们期待已久的「安培」架构 7 纳米制程显卡。

「像所有大会的 Keynote 一样,我得为今天的 GTC 演讲搞出一个简称。今天的世界是——Prada!」黄仁勋以这样的开场白介绍道。名为 Prada 并不意味着英伟达的显卡变成了奢侈品。它的意思是:

programmable

acceleration

domain

architecture

——可编程加速领域架构

与 Prada 相反的是,使用英伟达芯片还可以让你更省钱。

作为 GTC 2019 系列的起始,本次英伟达还是发布了大量重要新产品。

CUDA-X:GPU 加速的计算库

会上,黄仁勋发布全新的 GPU 加速的计算库 CUDA-X,该计算库捆绑了英伟达所有的库,解锁了 Tensor Core GPU 的所有灵活性,可以加速:

  • 数据科学,从数据摄取到 ETL,再到模型训练和部署

  • 用于回归、分类和聚类机器学习算法

  • 所有机器学习训练框架,此次发布之后,还可以自动优化英伟达 Tensor Core GPU

  • 推理和大规模 Kubernete 在云端的部署

  • 个人电脑、工作站、超级计算机云和企业数据中心上的数据科学

  • 亚马逊云服务、谷歌云和微软 Azure AI 服务商的数据科学

CUDA-X 加速了数据科学。英伟达今天在 GTC 上介绍的 CUDA-X AI 是用于数据科学加速的唯一端到端平台。

随着企业转向人工智能深度学习机器学习数据分析),为了使数据更有用,CUDA-X AI 应运而生。所有这些任务的典型工作流程都是:数据处理、特征确定、训练、验证和部署。CUDA-X AI 释放了英伟达 Tensor Core GPU 的灵活性,以独特的方式解决这种端到端人工智能工作流程。

CUDA-X AI 能够将机器学习数据科学工作负载加快 50 倍,包含十几个专门的加速库。它已经在用 cuDF 加速数据分析,用 cuDNN 加速深度学习基元;用 cuML 加速机器学习算法;用 DALI 加速数据处理等。

总之,这些库加速了典型 AI 工作流程的每一步,无论是用深度学习来训练语音识别和图像识别系统还是用数据分析来评估按揭风险。这些工作流程中的每一步都需要处理大量数据,每一步都受益于 GPU 加速计算。

鼓励创新的软件工具

在现场,英伟达还发布了 Clara AI Toolkit,这是一个开放的、可延展的计算平台,让开发者能够在混合的计算环境(嵌入、预置或者云)中建立、部署医疗图像应用,从而创造智能仪器和自动化的医疗工作流。为了帮助各领域的 AI 研发,Clara 中已有很多预训练模型,来自各行业的开发者可以直接使用这些模型,并将其转化为自己的专有工具。很多医疗机构现在已经在使用 Clara 了。

今天已有 100 万建筑师、300 万设计师、300 万 3D 设计师,200 万机械设计师在使用 RTX 技术开发产品了。很多专业软件也已开始支持 RTX 技术。其中包括 Adobe、Autodesk 等等。英伟达表示,已有 80% 的业界公司支持 RTX 技术。

制作 3D 动画是一项复杂的过程,当前全球已有 200 余家动画制作工作室,它们各自都在使用自身的软件和工作形态。英伟达希望能够通过一种统一的平台让各家工作室协同合作,从而提升效率,这就是 NVIDIA Omniverse。在 GTC 上,黄仁勋展示了未来 3D 动画开发的新流程:Autodesk Maya、虚幻引擎、SUBSTANCE 等不同软件,不同地区的工作室都可以在 Omniverse 上开发模型,所有进度都是互相即时可见的。

「Omniverse 可以让全世界的 3D 设计工作室联合起来。」黄仁勋表示。

一部分设计者调整模型,一部分设计场景,一部分修改颜色和贴图,所有工作都可以同时进行,大大提升了工作效率。「这就是 3D 图像领域的谷歌文档。」黄仁勋表示。

面向 5G 的云服务器

既然是 GTC 大会,就必然会推出新硬件。随着低延迟无线通信网络 5G 的临近,很多软硬件厂商一直推崇的「云串流游戏」业务也正逐渐变得现实起来。英伟达很早就已推出自己的云游戏计划:「GeForce Now」,不过由于延迟和带宽的问题,目前游戏的体验还没有达到想象中的完美程度。

「GeForce Now 现在已经有 30 万玩家、500 多款游戏了。」黄仁勋介绍道。「它并不是游戏届的 Netflix,而是在云端进行图像计算,实时将画面传送到本地进行的。」如果这个设想不久以后真正流行开来,没有强大 GPU 显卡的玩家就也能随时随地玩到最高画质的游戏了。在云端计算的游戏 stream 到本地,就像看视频一样,即使是在手机上我们也可以获得最强的图像体验。

为了满足全球各地玩家的需求,英伟达已经设立了 15 个数据中心提供算力。但对于云游戏服务来说这还远远不够,英伟达提出了 Geforce Now Alliance,邀请更多公司提供自己的算力,加入支持 GeForce now 的行列,首期加入的有 Softbank 和 LG U+。

有了合作伙伴,如何保证服务器的工作效率?英伟达还推出了 RTX Server 来保证算力。

这是一种性能强大的服务器设计,在 8U 的空间里可以容纳 40 块 Turing 架构的 GPU(GeForce RTX 2080),而整个服务器系统可以整合 32 套 RTX Server,在 10 个机架的空间内提供多达 1280 块 GPU 的算力,服务器之间使用 Mellanox 的技术实现高速连接。一个 RTX Server 系统可以供应多达 1 万名玩家同时进行游戏。

英伟达表示,8U 的 RTX Server 将会在今年的第三季度出货。

黄仁勋:买的越多,省的越多?现在错了,使用 RTX Server,五年之后你省下的电费相当于这是一台免费的服务器!

数据科学是目前发展最快的科学。」黄仁勋表示,英伟达这次在「超级计算」和「Hyper Scale」之间找到了新的产业痛点「数据科学」。这是一个对于并联计算效率要求很高,同时业需求大量算力的领域。新推出的 RTX Server 和此前提出的 DGX-2 正好符合这一领域的需求。

最小 AI 计算机:Jetson Nano

一届 GTC 上没有芯片是无法想象的,这一次英伟达发布的产品是历届大会上最小的,正如其名:Jetson Nano。

在今天的 GTC 大会上,黄仁勋发布了两版 Jetson Nano:面向开发者、爱好者的 99 美元开发包;以及面向公司的 129 美元的产品模块。英伟达 Jetson 家族又有了新成员,如今包括面向自动驾驶的 Jetson AGX Xavier、面向边缘 AI 的 Jetson TX2。

Jetson Nano 及其开发板。

据黄仁勋介绍,Jetson Nano 是一个能够创建数百万智能系统的人工智能计算机。这款小型但强大的 CUDA-X AI 计算机为运行现代 AI 工作流程提供了 472 千兆位的计算性能。它非常节能,功耗低至 5 瓦特。Jetson Nano 开发板包含一块 4 核 A57CPU、128 核 Maxwell 架构 GPU 以及 4G 内存。看起来是比树莓派 3 性能强一个等级的存在。

Jetson Nano 支持高清传感器,可以并行处理许多传感器并在每个传感器流上运行多个现有的神经网络。它还支持许多流行的人工智能框架,使得开发人员可以轻松地将他们喜欢的模型和框架集成到产品中。该开发包可以开箱即用地运行 Linux,拥有 4GB 内存和相机及其他附件所需的 I/O。

Jetson Nano 开发者工具包技术规格

据英伟达博客介绍,Jetson Nano 可以运行大量网络,包括 TensorFlow、PyTorch、Caffe/Caffe2、Keras、MXNet 这些流行的机器学习框架的完整本地版本。通过实现图像识别、目标检测与定位、人体姿态估计、语义分割、视频增强和智能分析等能力,这些网络可被用于构建自动驾驶机器和复杂的 AI 系统。

下图展示了在各种流行模型的推理基准结果。Jetson Nano 在许多场景中实现了实时表现,能够处理多种高清晰视频流。

各种深度学习推理网络在 Jetson Nano 和 TensorRT 下的表现,使用了 FP16 精度,batch size 为 1。

此外,英伟达还将 Jetson Nano 与树莓派、英特尔的计算棒以及谷歌的 Edge TPU 开发版进行了对比,部分结果如下。

Jetson Nano 与树莓派、英特尔的计算棒以及谷歌的 Edge TPU 开发版的推理表现结果对比

更自由的自动驾驶

除了开发板,英伟达芯片也已渗入各行各业的机器人领域,为人工智能算法提供端侧算力支持,不过最耗费算力的当属自动驾驶。「最重要的机器人就是自动驾驶汽车了。」黄仁勋表示。

目前,英伟达已经开放了覆盖整个自动驾驶流程的开发工具。很多车厂、自动驾驶科技公司、高精地图和传感器厂商已经加入了这个生态系统。

在现场,英伟达展示了最新的自动驾驶汽车演示录像,黄仁勋表示,去年的英伟达自动驾驶汽车是在闭环路线行动的,今天的自动驾驶汽车已经可以自生成动态地图并自动行驶了。「即使是地图上没有标注的支线道路,我们的自动驾驶汽车也可以通过 Lidar、雷达、摄像头等传感器自动生成高精度地图并安全行驶在其上。」黄仁勋表示。

在英伟达的愿景中,道路规划+预测+强制安全区域的逻辑可以在自动驾驶过程中预测未来道路上发生的各类情况,从而保证安全的自动驾驶。当然,这些算法很快将会开源。

在 GTC 上,英伟达发布了自动驾驶模拟器 Drive Constellation,这是一种复杂的虚拟场景,可供开发者们在更为真实的场景下训练自动驾驶 AI 模型。开发者在其中可以随意控制天气,道路交通情况,并可以随意切换控制车辆。这种方式相比于现实世界更为高效、成本效益更高也更为安全。

英伟达 Drive Constellation

去年的 GTC 首次介绍了 Drive Constellation,该数据中心解决方案包含两个并排服务器:DRIVE Constellation Simulator 使用运行 DRIVE Sim 软件的英伟达 GPU 生成虚拟世界中汽车的传感器输出;DRIVE Constellation Vehicle 包含 DRIVE AGX Pegasus AI 汽车计算机,用来处理模拟传感器数据。

英伟达表示,这种模拟器不仅可以帮助自动驾驶开发者,也将成为第三方监管机制的重要组成部分。在大会上,黄仁勋还公布了英伟达的第一个合作伙伴:目前世界排名第一的车厂丰田。

从英伟达 2018 年四季度的财报上来看,其 RTX20 系列显卡带来的收益并不理想。虽然 AMD 早在今年 1 月就推出了自己的 7 纳米制程 CPU 与 GPU,但英伟达似乎并没有感到紧迫的压力。目前,英伟达希望开拓新的市场,让更多行业用上最先进的人工智能技术。

产业GTCGTC 2019英伟达
2
相关数据
亚马逊机构

亚马逊(英语:Amazon.com Inc.,NASDAQ:AMZN)是一家总部位于美国西雅图的跨国电子商务企业,业务起始于线上书店,不久之后商品走向多元化。目前是全球最大的互联网线上零售商之一,也是美国《财富》杂志2016年评选的全球最大500家公司的排行榜中的第44名。

https://www.amazon.com/
相关技术
英特尔机构

英特尔是计算创新领域的全球领先厂商,致力于拓展科技疆界,让最精彩体验成为可能。英特尔创始于1968年,已拥有近半个世纪产品创新和引领市场的经验。英特尔1971年推出了世界上第一个微处理器,后来又促进了计算机和互联网的革命,改变了整个世界的进程。如今,英特尔正转型成为一家数据公司,制定了清晰的数据战略,凭借云和数据中心、物联网、存储、FPGA以及5G构成的增长良性循环,提供独到价值,驱动日益发展的智能互联世界。英特尔专注于技术创新,同时也积极支持中国的自主创新,与产业伙伴携手推动智能互联的发展。基于明确的数据战略和智能互联全栈实力,英特尔瞄准人工智能、无人驾驶、5G、精准医疗、体育等关键领域,与中国深度合作。面向未来,英特尔致力于做中国高价值合作伙伴,在新科技、新经济、新消费三个方面,着力驱动产业协同创新,为实体经济增值,促进消费升级。

https://www.intel.com/content/www/us/en/company-overview/company-overview.html
相关技术
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

数据分析技术

数据分析是一类统计方法,其主要特点是多维性和描述性。有些几何方法有助于揭示不同的数据之间存在的关系,并绘制出统计信息图,以更简洁的解释这些数据中包含的主要信息。其他一些用于收集数据,以便弄清哪些是同质的,从而更好地了解数据。 数据分析可以处理大量数据,并确定这些数据最有用的部分。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

基准技术

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

数据科学技术

数据科学,又称资料科学,是一门利用数据学习知识的学科,其目标是通过从数据中提取出有价值的部分来生产数据产品。它结合了诸多领域中的理论和技术,包括应用数学、统计、模式识别、机器学习、数据可视化、数据仓库以及高性能计算。数据科学通过运用各种相关的数据来帮助非专业人士理解问题。

自动驾驶汽车技术

自动驾驶汽车,又称为无人驾驶汽车、电脑驾驶汽车或轮式移动机器人,是自动化载具的一种,具有传统汽车的运输能力。作为自动化载具,自动驾驶汽车不需要人为操作即能感测其环境及导航。

规划技术

人工智能领域的「规划」通常是指智能体执行的任务/动作的自动规划和调度,其目的是进行资源的优化。常见的规划方法包括经典规划(Classical Planning)、分层任务网络(HTN)和 logistics 规划。

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

MXNet技术

MXNet是开源的,用来训练部署深层神经网络的深度学习框架。它是可扩展的,允许快速模型训练,并灵活支持多种语言(C ++,Python,Julia,Matlab,JavaScript, Go,R,Scala,Perl,Wolfram语言)

语义分割技术

语义分割,简单来说就是给定一张图片,对图片中的每一个像素点进行分类。图像语义分割是AI领域中一个重要的分支,是机器视觉技术中关于图像理解的重要一环。

聚类技术

将物理或抽象对象的集合分成由类似的对象组成的多个类的过程被称为聚类。由聚类所生成的簇是一组数据对象的集合,这些对象与同一个簇中的对象彼此相似,与其他簇中的对象相异。“物以类聚,人以群分”,在自然科学和社会科学中,存在着大量的分类问题。聚类分析又称群分析,它是研究(样品或指标)分类问题的一种统计分析方法。聚类分析起源于分类学,但是聚类不等于分类。聚类与分类的不同在于,聚类所要求划分的类是未知的。聚类分析内容非常丰富,有系统聚类法、有序样品聚类法、动态聚类法、模糊聚类法、图论聚类法、聚类预报法等。

目标检测技术

一般目标检测(generic object detection)的目标是根据大量预定义的类别在自然图像中确定目标实例的位置,这是计算机视觉领域最基本和最有挑战性的问题之一。近些年兴起的深度学习技术是一种可从数据中直接学习特征表示的强大方法,并已经为一般目标检测领域带来了显著的突破性进展。

5G技术

第五代移动通信系统(5th generation mobile networks),简称5G,是4G系统后的延伸。美国时间2018年6月13日,圣地牙哥3GPP会议订下第一个国际5G标准。由于物理波段的限制,5G 的网络也将会与其他通信技术并用,包含长距离的其他传统电信波段。

推荐文章
暂无评论
暂无评论~