wikichip 翻译自

特斯拉AI芯片深度解读

在IEEE年度Hot Chips大会上,特斯拉的FSD芯片是众多出色的演讲之一。在今年4月的自动驾驶日,特斯拉首次公开了他们的全自动驾驶(FSD)芯片。而在最近的Hot Chips 31大会上,特斯拉对芯片的一些关键组件提供了一些新的见解。
特斯拉工程师为FSD芯片和平台制定了许多主要目标。他们希望在功率范围内尽可能多地提升芯片TOPS。为了安全起见,芯片的主要设计点是在批量为一的情况下芯片的高利用率。值得注意的是,FSD芯片随附了一组用于通用处理的CPU和一个用于后处理的轻量级GPU,这不在本文的讨论范围之内。这些组件已在我们的主要文章中详细介绍。

神经处理器

尽管芯片上的大多数逻辑都使用经过行业验证的IP块来降低风险并加快开发周期,但特斯拉FSD芯片上的神经网络加速器是特斯拉硬件团队完全定制的设计。它们也是芯片上最大的组件,最重要的逻辑部分。

特斯拉谈到的一个有趣的小插曲是模拟。在开发过程中,特斯拉希望通过运行自己的内部神经网络来验证他们的NPU性能。因为他们在早期没有准备好仿真环境,所以他们求助于使用开源的Verilator模拟器,他们说这个模拟器的运行速度比商业模拟器快50倍。“我们广泛使用Verilator来证明我们的设计非常好,”特斯拉自动驾驶仪硬件高级总监Venkataramanan说。

每个FSD芯片内部有两个相同的NPU,它们物理上彼此相邻集成。当被问及使用两个NPU实例而不是一个更大的单元的原因时,特斯拉指出,每个NPU的大小都是物理设计(时序,面积,布线)的最佳选择。

ISA

NPU是具有乱序内存子系统的有序计算机。总体设计有点像是一种状态机。ISA包含最多4个带有复杂值的插槽的指令。总共只有八条指令:两条DMA读写指令、三条点积运算指令、缩放指令和元素添加指令。NPU只是简单地运行这些命令,直到点击停止命令停止它。还有一个额外的参数槽(parameters slot )可以改变指令的属性(例如,卷积运算的不同变化)。有一个标志槽(flags slot),用于处理数据依赖项(dependencies handling)。还有另一个扩展插槽,这个插槽存储了整个微程序序列的命令,这些命令在进行复杂的后处理时将被发送到SIMD单元。因此,指令从32字节到非常长的256字节不等。稍后将更详细地讨论SIMD单元。

初始操作

NPU的程序最初驻留在内存中。它们被带入NPU,并存储在命令队列中。NPU本身是一种非常出色的状态机,旨在大大减少控制开销。令队列中的命令将被解码为原始操作,并提供一组用于数据需要从何处获取的地址—这包括权重和数据。例如,如果传感器是一个新拍摄的图像传感器照片,输入缓冲区地址将指向那里。所有内容都存储在NPU内部的超大缓存中。从那以后就没有DRAM交互了。
 
高速缓存的容量为32 MiB,并且是高度存储的,每个bank只有一个端口。特斯拉指出,有一个复杂的bank仲裁器,连同一些编译器提示,用于减少bank冲突。每个周期中,最多可以将256个字节的数据读取到数据缓冲区中,并且最多可以将128个字节的权重读取到权重缓冲区中。根据步幅的不同,NPU可以在操作开始之前将多行数据引入数据缓冲区,以便更好地重用数据。每个NPU的组合读取带宽为384B/cycle,其本地缓存的峰值读取带宽为786 GB/s。特斯拉说,这使他们能够非常接近维持MAC正常运行所需的理论带宽峰值,通常至少80%的利用率,很多时候会达到更高的利用率。

MAC阵列

CNNs的主要操作当然是卷积,卷积占特斯拉软件在NPU上执行的所有操作的98.1%,反卷积占1.6%。在优化MAC上花费了大量的精力。
 
MAC阵列中的数据重用很重要,否则,即使每秒1 TB的带宽也无法满足要求。在某些设计中,为了提高性能,可以一次处理多张图像。但是,出于安全原因,延迟是其设计的关键属性,因此它们必须尽快处理单个图像。特斯拉在这里做了许多其他优化。NPU通过合并输出通道中X和Y维度上的输出像素,在多个输出通道上并行运行。这允许他们并行化工作,并同时处理96个像素。换句话说,当它们处理通道中的所有像素时,所有输入权重都是共享的。此外,它们还交换输出通道和输入通道循环(请参见下图的代码段)。这使它们能够依次处理所有输出通道,共享所有输入激活,而无需进一步的数据移动。这是带宽需求的又一个很好的降低。

通过上述优化,可以简化MAC阵列操作。每个阵列包括9,216个MAC,并排列在96 x 96的独立单周期MAC反馈环路的单元中(请注意,这不是收缩阵列,单元间没有数据移位)。为了简化其设计并降低功耗,它们的MAC由8位乘8位整数乘法和32位整数加法组成。特斯拉自己的模型在发送给客户时都是预先量化的,因此芯片只存储8位整数中的所有数据和权重
 
每个周期,输入数据的底部一行和权值的最右边一列将在整个MAC数组中公示。每个单元独立执行适当的乘法累加运算。在下一个循环中,输入数据将一行向下推,而权重网格将一行向右推。这个过程是重复的,输入数据的最底一行和权值的最右列在数组中公示。单元继续独立执行其操作。全点积卷积结束时,MAC阵列每次下移96个元素,这也是SIMD单元的吞吐量。

NPU本身实际上能够运行超过2 GHz的速度,尽管特斯拉引用了所有基于2 GHz时钟的数字,所以可以推测,这就是生产时钟。在2GHz下运行,则每个NPU的峰值计算性能为36.86 teraOPS (Int8)。NPU的总功耗为7.5 W,约占FSD功耗预算的21%。这使得它们的性能功率效率约为4.9TOPs/W,这是迄今为止我们在已出货芯片上所见过的最高效率之一,与英特尔最近宣布的NNP-I (Spring Hill)推理加速器不相上下。尽管特斯拉NPU在实际中的通用性有点可疑。但请注意,每个芯片上有两个NPU,它们消耗的总功率预算略超过40%。

SIMD单元

从MAC阵列,将一行压入SIMD单元。SIMD单元是可编程执行单元,旨在为特斯拉提供一些额外的灵活性。为此,SIMD单元为诸如sigmoid,tanh,argmax和其他各种功能提供支持。它带有自己丰富的指令集,这些指令由从机命令定序器执行。从命令排序器从前面描述的指令的扩展槽中获取操作。特斯拉表示,它支持你在普通CPU中可以找到的大多数典型指令。 除此之外,SIMD单元还配备了可执行归一化,缩放和饱和的管状量化单元。

将结果从SIMD单元转发到pooling unit(如果需要),或者直接转发到write-combine,在write-combine中,结果会以128B/周期的速率被机会性地写回SRAM。该单元进行2×2和3×3的池操作,在conv单元中进行更高阶的处理。它可以进行最大池化和平均池化。对于平均池,使用基于2×2/3×3的常量的定点乘法单元替换除法。 由于特斯拉最初对MAC阵列的输出通道进行了交错处理,因此它们会首先进行适当的重新对齐以进行校正。

总而言之,特斯拉实现了它的性能目标。FSD计算机(HW 3.0)的性能比上一代(HW 2.5)提高了21倍,而功耗只提高了25%。特斯拉的FSD芯片和FSD计算机今天已经发货。

半导体行业观察
半导体行业观察

最有深度的半导体新媒体,实时、专业、原创、深度,30万半导体精英关注!专注观察全球半导体最新资讯、技术前沿、发展趋势。

产业AI芯片特斯拉
1
相关数据
英特尔机构

英特尔是计算创新领域的全球领先厂商,致力于拓展科技疆界,让最精彩体验成为可能。英特尔创始于1968年,已拥有近半个世纪产品创新和引领市场的经验。英特尔1971年推出了世界上第一个微处理器,后来又促进了计算机和互联网的革命,改变了整个世界的进程。如今,英特尔正转型成为一家数据公司,制定了清晰的数据战略,凭借云和数据中心、物联网、存储、FPGA以及5G构成的增长良性循环,提供独到价值,驱动日益发展的智能互联世界。英特尔专注于技术创新,同时也积极支持中国的自主创新,与产业伙伴携手推动智能互联的发展。基于明确的数据战略和智能互联全栈实力,英特尔瞄准人工智能、无人驾驶、5G、精准医疗、体育等关键领域,与中国深度合作。面向未来,英特尔致力于做中国高价值合作伙伴,在新科技、新经济、新消费三个方面,着力驱动产业协同创新,为实体经济增值,促进消费升级。

https://www.intel.com/content/www/us/en/company-overview/company-overview.html
相关技术
池化技术

池化(Pooling)是卷积神经网络中的一个重要的概念,它实际上是一种形式的降采样。有多种不同形式的非线性池化函数,而其中“最大池化(Max pooling)”是最为常见的。它是将输入的图像划分为若干个矩形区域,对每个子区域输出最大值。直觉上,这种机制能够有效的原因在于,在发现一个特征之后,它的精确位置远不及它和其他特征的相对位置的关系重要。池化层会不断地减小数据的空间大小,因此参数的数量和计算量也会下降,这在一定程度上也控制了过拟合。通常来说,CNN的卷积层之间都会周期性地插入池化层。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

最大池化技术

最大池化(max-pooling)即取局部接受域中值最大的点。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

反馈环技术

反馈回路是系统输出的某些部分(或全部)用作将来操作的输入的环结构。

推荐文章
暂无评论
暂无评论~