Tekla S. Perry作者Geek AI 路编译

David Patterson:迎接新的计算机体系结构和软件开发语言

在后摩尔定律时代,「现在是成为计算机架构师的最好时机」。

2017 年图灵奖得主、加州大学教授、谷歌工程师、RISC 架构先驱 David Patterson 说,现在是成为计算机架构师的最好时机。

因为摩尔定律已经失效了,他说:「如果摩尔定律仍然奏效,那么我们现在会比应有的技术水平落后 15 倍。如今,我们正处于后摩尔定律时代」。

上周在圣何塞举行的 2018@Scale 会议上,Patterson 告诉参加会议的工程师:「我们习以为常的性能提升速度已经难以为继了。在计算机性能每 18 个月翻一番的时代,人们会扔掉那些仍然运行良好的台式机,因为朋友的新电脑要快得多」。

但是他在去年说:「单个程序的执行性能仅仅提高了 3%,所以按照这个速度得 20 年才能让性能翻一番。如果你还傻傻地等待芯片变得更快,那你就有的等了!」

对于像 Patterson 这样的计算机架构师来说,这其实是一个好消息。他指出,这对于创新的软件工程师来说也是好消息。「我们急需开发出专为特定计算任务量身定做的革命性新硬件架构和软件编程语言,」他说,「如果人们愿意致力于这方面的研究,那么图灵奖非他们莫属。」

Patterson 举出了一个软件编程方面的例子:将 Python 重写为 C,程序的运行速度将提升 50 倍。如果再加入各种各样的优化技术,运行速度还会显著提升,他说:「将 Python 程序的性能提升 1000 倍也不是完全不可能」。

至于硬件,Patterson 认为针对特定领域开发的架构会运行得更好。他说:「这并不是魔术,我们刚好能够做到这些事情。」例如,并不是所有的应用都要求计算结果达到同样的准确度。他说,对于某些应用来说,你可以使用比我们常用的 IEEE 754 标准精确度更低的浮点运算。

Patterson 说,机器学习是现在最可能应用这些新架构和语言的场景。「如果你从事硬件研究,你会想要朋友需要更多计算机。」而机器学习「对算力的需求极大,这令我们非常高兴」。

Patterson 称,如今研究者围绕哪种类型的计算机架构最适合机器学习展开了激烈的讨论,而许多公司也将宝押在了这些架构上。谷歌开发了自己的张量处理单元(TPU),其每个芯片都拥有一个核心,并且使用软件控制的内存代替了缓存;英伟达的 GPU 拥有 80 多个核心,而微软正采用 FPGA 解决方案。英特尔「正试图对所有的计算机架构投入力量」,既推广将传统的 CPU 用于机器学习,又收购了 Altera(为微软提供 FPGA 的公司),还买下了 Nervana(该公司拥有与谷歌 TPU 类似的专用神经网络处理器)。

Patterson 说,除了这些为机器学习提供不同架构的主要公司,还有至少 45 家硬件初创公司正在该领域进行角逐。最终鹿死谁手由市场决定。

「这是计算机架构最好的黄金时代。」


原文链接:https://spectrum.ieee.org/view-from-the-valley/computing/hardware/david-patterson-says-its-time-for-new-computer-architectures-and-software-languages

工程摩尔定律计算机架构David Patterson
3
相关数据
英特尔机构

英特尔是计算创新领域的全球领先厂商,致力于拓展科技疆界,让最精彩体验成为可能。英特尔创始于1968年,已拥有近半个世纪产品创新和引领市场的经验。英特尔1971年推出了世界上第一个微处理器,后来又促进了计算机和互联网的革命,改变了整个世界的进程。如今,英特尔正转型成为一家数据公司,制定了清晰的数据战略,凭借云和数据中心、物联网、存储、FPGA以及5G构成的增长良性循环,提供独到价值,驱动日益发展的智能互联世界。英特尔专注于技术创新,同时也积极支持中国的自主创新,与产业伙伴携手推动智能互联的发展。基于明确的数据战略和智能互联全栈实力,英特尔瞄准人工智能、无人驾驶、5G、精准医疗、体育等关键领域,与中国深度合作。面向未来,英特尔致力于做中国高价值合作伙伴,在新科技、新经济、新消费三个方面,着力驱动产业协同创新,为实体经济增值,促进消费升级。

https://www.intel.com/content/www/us/en/company-overview/company-overview.html
相关技术
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

摩尔定律技术

摩尔定律是由英特尔创始人之一戈登·摩尔提出来的。其内容为:积体电路上可容纳的电晶体数目,约每隔两年便会增加一倍;经常被引用的“18个月”,是由英特尔首席执行官大卫·豪斯所说:预计18个月会将芯片的性能提高一倍。

推荐文章
暂无评论
暂无评论~