Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

Tekla S. Perry作者Geek AI 路编译

David Patterson:迎接新的计算机体系结构和软件开发语言

在后摩尔定律时代,「现在是成为计算机架构师的最好时机」。

2017 年图灵奖得主、加州大学教授、谷歌工程师、RISC 架构先驱 David Patterson 说,现在是成为计算机架构师的最好时机。

因为摩尔定律已经失效了,他说:「如果摩尔定律仍然奏效,那么我们现在会比应有的技术水平落后 15 倍。如今,我们正处于后摩尔定律时代」。

上周在圣何塞举行的 2018@Scale 会议上,Patterson 告诉参加会议的工程师:「我们习以为常的性能提升速度已经难以为继了。在计算机性能每 18 个月翻一番的时代,人们会扔掉那些仍然运行良好的台式机,因为朋友的新电脑要快得多」。

但是他在去年说:「单个程序的执行性能仅仅提高了 3%,所以按照这个速度得 20 年才能让性能翻一番。如果你还傻傻地等待芯片变得更快,那你就有的等了!」

对于像 Patterson 这样的计算机架构师来说,这其实是一个好消息。他指出,这对于创新的软件工程师来说也是好消息。「我们急需开发出专为特定计算任务量身定做的革命性新硬件架构和软件编程语言,」他说,「如果人们愿意致力于这方面的研究,那么图灵奖非他们莫属。」

Patterson 举出了一个软件编程方面的例子:将 Python 重写为 C,程序的运行速度将提升 50 倍。如果再加入各种各样的优化技术,运行速度还会显著提升,他说:「将 Python 程序的性能提升 1000 倍也不是完全不可能」。

至于硬件,Patterson 认为针对特定领域开发的架构会运行得更好。他说:「这并不是魔术,我们刚好能够做到这些事情。」例如,并不是所有的应用都要求计算结果达到同样的准确度。他说,对于某些应用来说,你可以使用比我们常用的 IEEE 754 标准精确度更低的浮点运算。

Patterson 说,机器学习是现在最可能应用这些新架构和语言的场景。「如果你从事硬件研究,你会想要朋友需要更多计算机。」而机器学习「对算力的需求极大,这令我们非常高兴」。

Patterson 称,如今研究者围绕哪种类型的计算机架构最适合机器学习展开了激烈的讨论,而许多公司也将宝押在了这些架构上。谷歌开发了自己的张量处理单元(TPU),其每个芯片都拥有一个核心,并且使用软件控制的内存代替了缓存;英伟达的 GPU 拥有 80 多个核心,而微软正采用 FPGA 解决方案。英特尔「正试图对所有的计算机架构投入力量」,既推广将传统的 CPU 用于机器学习,又收购了 Altera(为微软提供 FPGA 的公司),还买下了 Nervana(该公司拥有与谷歌 TPU 类似的专用神经网络处理器)。

Patterson 说,除了这些为机器学习提供不同架构的主要公司,还有至少 45 家硬件初创公司正在该领域进行角逐。最终鹿死谁手由市场决定。

「这是计算机架构最好的黄金时代。」


原文链接:https://spectrum.ieee.org/view-from-the-valley/computing/hardware/david-patterson-says-its-time-for-new-computer-architectures-and-software-languages

工程David Patterson计算机架构摩尔定律
3
相关数据
英特尔机构

英特尔(NASDAQ: INTC)是全球半导体行业的引领者,以计算和通信技术奠定全球创新基石,塑造以数据为中心的未来。我们通过精尖制造的专长,帮助保护、驱动和连接数十亿设备以及智能互联世界的基础设施 —— 从云、网络到边缘设备以及它们之间的一切,并帮助解决世界上最艰巨的问题和挑战。

http://www.intel.cn/
相关技术
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

摩尔定律技术

摩尔定律是由英特尔创始人之一戈登·摩尔提出来的。其内容为:积体电路上可容纳的电晶体数目,约每隔两年便会增加一倍;经常被引用的“18个月”,是由英特尔首席执行官大卫·豪斯所说:预计18个月会将芯片的性能提高一倍。

推荐文章
暂无评论
暂无评论~