Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

作者包云岗

多核之后,CPU 的发展方向是什么?中科院计算所包云岗详细解读

后摩尔定律时代,CPU 性能提升放缓,计算力增长式微。多核之后,CPU 还能借助哪些方向实现突围?在这篇文章中,中国科学院计算技术研究所研究员包云岗对这一问题进行了详细解读。

包云岗,中国科学院计算技术研究所研究员、博士生导师、中国科学院大学教授,中国开放指令生态(RISC-V)联盟秘书长,从事计算机体系结构和开源芯片方向前沿研究,主持研制多款达到国际先进水平的原型系统,相关技术在华为、阿里等国内外企业应用。他曾获「CCF-Intel 青年学者」奖、阿里巴巴最佳合作项目奖、「CCF-IEEE CS」青年科学家奖等奖项。


2020 年底给某大厂做过一个报告,包含两部分内容:一部分是关于计算机体系结构,尤其是 CPU 结构的演变;另一部分关于处理器芯片设计方法。这里把第一部分内容贴出来回答一下这个知乎问题。
1. 首先回顾一下计算机体系结构领域三个定律:摩尔定律、牧村定律、贝尔定律。摩尔定律就不用多说了,但想表达一个观点是摩尔定律未死,只是不断放缓。
2. 摩尔定律让芯片上的晶体管数量不断增加,但一个问题是这些晶体管都被充分用起来了吗?最近 MIT 团队在《Science》上发表了一篇文章《There’s plenty of room at the Top: What will drive computer performance after Moore’s law?》,给出他们的答案:显然没有!

可以来看一下 MIT 团队开展的一个小实验(见下面 PPT):假设用 Python 实现一个矩阵乘法的性能是 1,那么用 C 语言重写后性能可以提高 50 倍,如果再充分挖掘体系结构特性(如循环并行化、访存优化、SIMD 等),那么性能甚至可以提高 63000 倍。然而,真正能如此深入理解体系结构、写出这种极致性能的程序员绝对是凤毛麟角。

问题是这么大的性能差异到底算好还是坏?从软件开发角度来看,这显然不是好事。这意味着大多数程序员无法充分发挥 CPU 的性能,无法充分利用好晶体管。这不能怪程序员,更主要还是因为 CPU 微结构太复杂了,导致软件难以发挥出硬件性能。

如何解决这个问题?领域专用架构 DSA(Domain-Specific Architecture)就是一个有效的方法。DSA 可以针对特定领域应用程序,定制微结构,从而实现数量级提高性能功耗比。这相当于是把顶尖程序员的知识直接实现到硬件上。
3. 第二个定律是牧村定律(也有称「牧村波动」)。1987 年, 原日立公司总工程师牧村次夫(Tsugio Makimoto) 提出,半导体产品发展历程总是在「标准化」与「定制化」之间交替摆动,大概每十年波动一次。牧村定律背后是性能功耗和开发效率之间的平衡。

对于处理器来说,就是专用结构和通用结构之间的平衡。最近这一波开始转向了追求性能功耗,于是专用结构开始更受关注。
4. 第三个定律是贝尔定律。这是 Gordon Bell 在 1972 年提出的一个观察,具体内容如下面的 PPT 所述。值得一提的是超级计算机应用最高奖 “戈登 · 贝尔奖” 就是以他的名字命名。
5. 贝尔定律指明了未来一个新的发展趋势,也就是 AIoT 时代的到来。这将会是一个处理器需求再度爆发的时代,但同时也会是一个需求碎片化的时代,不同的领域、不同行业对芯片需求会有所不同,比如集成不同的传感器、不同的加速器等等。如何应对碎片化需求?这又将会是一个挑战。
6. 这三个定律都驱动计算机体系结构向一个方向发展,那就是「DSA」。如何实现 DSA,这又涉及到两个方面:

为了追求性能功耗,有三条主要的设计原则(见下面 PPT);

为了应对碎片化需求,则需要发展出处理器敏捷设计新方法。(这个回答就不介绍敏捷设计方法了)
7. 在谈一些具体技术之前,我们可以先总体看一下过去几十年 CPU 性能是如何提升的。下面这页 PPT 列出了 1995-2015 这二十年 Intel 处理器的架构演进过程——这是一个不断迭代优化的过程,集成了上百个架构优化技术。

这些技术之间还存在很多耦合,带来很大的设计复杂度。比如 2011 年在 Sandy Bridge 上引入了大页面技术,要实现这个功能,会涉及到超标量、乱序执行、大内存、SSE 指令、多核、硬件虚拟化、uOP Fusion 等等一系列 CPU 模块和功能的修改,还涉及操作系统、编译器、函数库等软件层次修改,可谓是牵一发动全身。(经常看到有人说芯片设计很简单,也许是因为还没有接触过 CPU 芯片的设计,不知道 CPU 设计的复杂度)
8. 处理器内部有非常复杂的状态,其状态变化是由程序驱动的。也就是说,处理器状态取决于程序行为(见下面 PPT),而 CPU 体系结构层次的优化思路就是发现程序行为中的共性特征并进行加速。

如何发现程序行为中的共性特征,就是处理器优化的关键点,这需要对程序行为、操作系统、编程与编译、体系结构等多个层次都有很好的理解,这也是计算机体系结构博士的基本要求。这也是为什么很多国外的计算机体系结构方向属于 Computer Science 系。

题外话:这两天看到国内成立集成电路一级学科,这是一个好消息。不过要能培育 CPU 设计人才,在课程设计上不要忽视了操作系统、编程与编译这些传统计算机科学的课程。
9. 举两个发现热点应用和热点代码、并在体系结构层次上优化的例子。一个例子是发现在不少领域 TCP/IP 协议栈五层协议(L5Ps)存在很多大量共性操作,比如加密解密等,于是直接在网卡上实现了一个针对 L5Ps 的加速器,大幅加速了网络包处理能力。另一个例子是这次疫情导致云计算数据中心大量算力都用来做视频转码,于是设计了一个硬件加速器专门来加速视频转码,大幅提升了数据中心效率。
10. 发现和识别这种热点应用和热点代码并不容易,需要由很强大的基础设施和分析设备。比如 Google 在其数据中心内部有一个 GWP 工具,能对整个数据中心应用在很低的开销下进行监测与统计,找到算力被那些热点程序 / 代码消耗,当前的 CPU 哪些部件是瓶颈。比如 GWP 显示在 Google 数据中心内部有 5% 的算力被用来做压缩

正是得益于这些基础工具,Google 很早就发现 AI 应用在数据中心中应用比例越来越高,于是开始专门设计 TPU 来加速 AI 应用。
11. 下面分别从三个方面来介绍体系结构层面的常见优化思路:减少数据移动、降低数据精度、提高处理并行度。

首先看一下如何减少数据移动。第一个切入点是指令集——指令集是程序语义的一种表达方式。同一个算法可以用不同粒度的指令集来表达,但执行效率会有很大的差别。一般而言,粒度越大,表达能力变弱,但是执行效率会变高。
12. 通用指令集为了能覆盖尽可能多的应用,所以往往需要支持上千条指令,导致流水线前端设计(取指、译码、分支预测等)变得很复杂,对性能与功耗都会产生负面影响。
13. 针对某一个领域设计专用指令集,则可以大大减少指令数量,并且可以增大操作粒度、融合访存优化,实现数量级提高性能功耗比。下面 PPT 的这组数据是斯坦福大学团队曾经做过的一项研究,从这个图可以看出,使用了「Magic Instruction」后,性能功耗比大幅提升几十倍。而这种 Magic Instruction 其实就是一个非常具体的表达式以及对应的电路实现(见 PPT 右下角)。
14. 第二个减少数据移动的常用方法就是充分发挥缓存的作用。访存部件其实是处理器最重要的部分了,涉及许多技术点(如下面 PPT)。很多人都关注处理器的流水线多宽多深,但其实大多数时候,访存才是对处理器性能影响最大的。

关于访存优化,也有一系列技术,包括替换、预取等等。这些技术到今天也依然是体系结构研究的重点,这里就不展开细讲了。
15. 不再展开介绍访存优化技术,就选最近比较热的内存压缩方向介绍一下。

IBM 在最新的 Z15 处理器中增加了一个内存压缩加速模块,比软件压缩效率提高 388 倍,效果非常突出。
16. 英伟达也在研究如何在 GPU 中通过内存压缩技术来提升片上存储的有效容量,从而提高应用性能。
17. Intel 在访存优化上很下功夫,可以通过对比两款 Intel CPU 来一窥究竟。Core 2 Due T9600 和 Pentium G850 两块 CPU,工艺差一代,但频率相近,分别是 2.8GHz 和 2.9GHz,但性能差了 77%——SPEC CPU 分值 G850 是 31.7 分,而 T9600 只有 17.9 分。

频率相当,为何性能会差这么多?事实上,G850 的 Cache 容量比 T9600 还要小——6MB L2 vs. 256KB L2 + 3MB L3。

如果再仔细对比下去,就会发现这两款处理器最大的区别在于 G850 适配的内存控制器中引入 FMA(Fast Memory Access)优化技术,大幅提高了访存性能。
18. 第二类体系结构优化技术是降低数据精度。这方面是这几年研究的热点,特别是在深度学习领域,很多研究发现不需要 64 位浮点,只需要 16 位甚至 8 位定点来运算,精度也没有什么损失,但性能却得到数倍提升。

很多 AI 处理器都在利用这个思路进行优化,包括前段时间日本研制的世界最快的超级计算机 “富岳” 中的 CPU 中就采用了不同的运算精度。因此其基于低精度的 AI 运算能力可以达到 1.4EOPS,比 64 位浮点运算性能(416PFLOPS)要高 3.4 倍
19. IEEE 754 浮点格式的一个弊端是不容易进行不同精度之间的转换。近年来学术界提出一种新的浮点格式——POSIT,更容易实现不同的精度,甚至有一些学者呼吁用 POSIT 替代 IEEE 754(Posit: A Potential Replacement for IEEE 754)。

RISC-V 社区一直在关注 POSIT,也有团队实现了基于 POSIT 的浮点运算部件 FPU,但是也还存在一些争论(David Patterson 和 POSIT 发明人 John L. Gustafson 之间还有一场精彩的辩论,另外找机会再介绍)。
20. 体系结构层次的第三个优化思路就是并行。这个题目中提到的 “多核”,就是这个思路中一个具体的技术。除了多核,还有其他不同层次的并行度,比如指令集并行、线程级并行、请求级别并行;除了指令级并行 ILP,还有访存级并行 MLP。总之,提高处理并行度是一种很有效的优化手段。
以上是关于计算机体系结构尤其是 CPU 结构优化思路的一个大致梳理,供大家参考。总结来说就是两点结论:

1. 领域专用体系结构 DSA 是未来一段时间体系结构发展趋势;
2. 体系结构层面 3 条优化路线——减少数据移动、降低数据精度、提高处理并行度。


原文链接:https://www.zhihu.com/question/20809971/answer/1678502542
工程
1
暂无评论
暂无评论~