Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

AMD 推出适用于 HPC 和 AI 工作负载的 Instinct MI200 GPU

编辑 | 萝卜皮

AMD 推出适用于 HPC 和 AI 工作负载的 Instinct MI200 GPU

AMD 日前推出了最新一代数据中心 GPU 的 Instinct MI200 加速器。这家芯片制造商表示,它是最快的 HPC 和 AI 加速器,超过了去年推出的 MI100 创下的记录。

AMD 表示,与现有数据中心 GPU 相比,Instinct MI200 的高性能计算提高了 4.9 倍。该公司还声称它是 AI 训练中最快的,为混合精度性能提供高达 1.2 倍的峰值触发器。

该加速器包含 580 亿个采用 6nm 技术生产的晶体管。这允许多达 220 个计算单元,与 MI100 相比,计算密度增加了 80% 以上。它也是全球首款配备 128GB HBM2E 显存的 GPU。

它是世界上第一款多芯片 GPU,采用 AMD 第二代 CDNA 架构。去年,AMD 将其数据中心和游戏 GPU 设计分为两部分时,推出了 CDNA 架构。CDNA 架构专为优化数据中心计算工作负载而设计。

AMD 数据中心 GPU 加速器副总裁 Brad McCreadie 表示:「当然,这些工作负载运行在非常不同的系统上,因此将它们分成两个产品和两个芯片系列是我们设计更好产品的一种简单方法。」

新的 MI200 加速器在峰值 FP64 性能方面比 Nvidia 的 A100 GPU 快约 5 倍。这对于需要高精度的 HPC 工作负载(如天气预报)来说至关重要。其峰值 FP32 矢量性能大约快 2.5 倍。AMD 指出,这对于用于疫苗模拟的数学运算类型很重要。

AMD 还推出了其首款采用 3D Chiplet 技术的服务器 CPU Milan-X。它将于 2022 年第一季度正式推出。

与标准 Milan 处理器相比,这些处理器具有 3 倍的 L3 缓存。在 Milan 中,每个 CCD 有 32MB 的缓存。在 Milan-X 中,AMD 为每个 CCD 带来了 96MB。CPU 堆栈顶部的每个插槽共有 804 MB 缓存,可缓解内存带宽压力并减少延迟。这反过来又显着加快了应用程序的性能。

在插槽级别,Milan-X 是技术计算工作负载最快的服务器处理器,与 Milan 相比,针对目标技术计算工作负载的提升超过 50%。

AMD 将注意力集中在一些支持产品设计的工作负载上,例如用于模拟和优化芯片设计的 EDA 工具。大型缓存对于为这些工作负载获得更好的性能至关重要。

在芯片设计中,验证是最重要的任务之一。它有助于在芯片被烘烤成硅之前及早发现缺陷。与 Milan 相比,Milan-X 在给定的时间内完成的工作量多 66%。这应该有助于使用 EDA 工具的客户完成验证并更快地进入市场,或者在相同的时间内添加更多测试以进一步提高其设计的质量或稳健性。

相关报道:https://www.zdnet.com/article/amd-rolls-out-instinct-mi200-gpus-for-hpc-and-ai-workloads/

产业
暂无评论
暂无评论~