Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

李泽南 路雪参与

「世界第一超算」宝座终易主:英伟达GPU加持,美国Summit超越神威太湖之光

自 2013 年以来,中国超算一直在全球超级计算机排名中位居第一,现在美国又回到了顶峰。本周五,美国能源部橡树岭国家实验室的工程师们发布了「Summit」,这是一台具有强大性能的超级计算机,它超越了目前的记录保持者:中国的神威·太湖之光。

这台由 IBM 等公司和机构打造的新机器的峰值算力可达每秒 200 petaflops——每秒 200 千万亿次计算。Summit 要比神威·太湖之光快 60%,比同在橡树岭实验室的 Titan——前美国超算记录保持者要快接近 8 倍。而在其之下,近 28,000 块英伟达 Volta GPU 提供了 95% 的算力。

由 IBM 构建的超级计算机 Summit 成为了世界上最智能、最强大的 AI 机器。其机架由超过 185 英里的光纤电缆连接而成。

位于美国田纳西州东部的橡树岭国家实验室宣布开发出新型超级计算机 Summit,这是目前地球上最强大的计算机器。它的设计目的部分是为了扩展人工智能技术。

自 2013 年 6 月中国超级计算机首次成为最强超算之后,美国就不再拥有世界上最强大的超算。Summit 有望结束这一局面,Top500 组织的超级计算机官方排名将在本月底更新。

超级计算机在云计算和大数据中心的时代略微失色。但是很多棘手的计算问题还是需要大型机器。去年美国政府的一份报告中称,美国应该在超级计算上投入更多,以在核武器和高超音速飞机等国防项目,航空航天工业、石油开采和制药业的商业创新方面赶上中国。

IBM 构建的超算 Summit 占地面积相当于两个网球场大小,其循环系统每分钟需要消耗 4000 加仑水来使 37000 个处理器降温。橡树岭实验室称,利用评估超级计算机的标准度量的结果显示,新的机器峰值性能可达 200 千万亿次计算每秒(2 后面有 17 个 0!),即 200 千万亿次浮点运算。速度大约是典型笔记本电脑的一百万倍,峰值性能几乎达到之前排名第一的中国超算神威·太湖之光的两倍。

Summit 超级计算机服务器内部图示(共有 4608 个服务器)。

在早期测试中,橡树岭国家实验室的研究人员使用 Summit 在一个分析人类基因序列差异的项目中执行超过一百万兆(quintillion)次计算每秒。他们称这是首次科学计算达到了计算规模要求。

美国这一最好超级计算机不仅对于算力地缘政治有很大影响,其设计也更加适合运行技术公司中流行的机器学习技术。

近年来,计算机科学在语音识别和围棋等游戏上实现突破的原因之一就是,研究者发现图形芯片可以对深度神经网络这一机器学习技术提供更大力量。Facebook 近期还披露了其使用十亿张 Instagram 照片在数百个图形芯片上进行了接近一个月的人工智能实验。

据介绍,新的「世界第一超算」Summit 使用了 27,648 块搭载 Tensor Core 的最新英伟达 Volta GPU,以及来自 IBM 的超过 9000 块传统处理器(其中包括 Power 9)。在 NVLink 等高速互联技术的帮助下,Summit 在每个节点上部署了 6 块 GPU(而不是常规的 1 块)这使得它的模拟性能达到了前作 Titan 的十倍。英伟达称,新的超级计算机上 95% 的算力来自于 GPU。

如此大规模的 GPU 使用对超级计算机来说也是不寻常的,它应该能够促使使用机器学习解决科学难题方面出现突破,橡树岭国家实验室负责人 Thomas Zacharia 说道。「我们计划构建世界上最强大的超级计算机,也是世界上最智能的超算。」

「Summit 是一个吸引全球伟大科学家的宏伟科学工具,」英伟达 CEO 黄仁勋在超算 Summit 发布会上表示。

伊利诺伊大学香槟分校、国家超级计算应用中心的研究员 Eliu Huerta 将 Summit 巨大的 GPU 池形容为「就像梦境一样」。Huerta 此前在一台名为 Blue Waters 的超级计算机上应用机器学习方法检测 LIGO 天文台的引力波数据(引力波发现者曾获得 2017 年的诺贝尔物理学奖)。他希望 Summit 能够帮助分析每晚从「大型综合巡天望远镜」得到的大约 15TB 图像。

Summit 也将用于利用深度学习解决化学和生物学问题。Zacharia 表示,这台超级计算机可以使用来自 2200 万退伍军人的医疗记录为美国能源部项目做出贡献,其中包括约 25 万全基因组序列。

此前,越来越多的美国人担心国家在大型计算领域的竞争力,Summit 的出现或许会推动其后继机型的发展。

美国、中国、日本和欧盟都已宣布了第一代「百亿亿级」(exascale)超算的研发计划——实现超过 1000 petaflop 的算力——这是大规模计算的下一个大里程碑。「中国称这一目标将在 2020 年实现,」华盛顿智库信息技术与创新基金会的全球创新战略副总裁 Stephen Ezell 表示,「如果 Summit 的继任者 Aurora 能够按期完成,那么美国也将在 2021 年实现这个目标,但是这一计划此前曾被推迟。」

Top500 组织在 2017 年 11 月发布的最新排名,国内的「神威太湖之光」和「天河二号」排名前两位,现在中国的领先位置或将被打破。

美国特朗普政府在今年春天申请 3.76 亿美元的额外资金来帮助实现 2021 年的超算研发目标。现在,这一提议已获得国家立法委员会的批准。「高性能计算对于一个国家的安全、经济竞争力和应对科学挑战的能力是必不可少的。」Ezell 表示。 

参考内容:

https://www.wired.com/story/the-us-again-has-worlds-most-powerful-supercomputer

https://blogs.nvidia.com/blog/2018/06/08/worlds-fastest-exascale-ai-supercomputer-summit/

产业英伟达GPU硬件
1
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

推荐文章
暂无评论
暂无评论~