Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

编辑李泽南

英伟达推出液冷A100、H100 GPU:同样性能,能耗降低30%

液冷版的 A100 PCIe GPU 能够满足客户对高性能绿色数据中心的需求,在主流服务器 GPU 中尚属首例。

5 月 24 日,在台北 Computex 2022 国际电脑展的活动中,英伟达推出了推出其高端 PCIe 加速卡 H100 和 A100 的液冷版本。

作为传统双槽风冷卡的小幅升级版,液冷卡采用更紧凑的单槽外形,既能改善冷却效果,又能提高密度。据介绍,液冷 A100 将于第三季度上市,液冷 H100 将于明年初上市。

虽然液冷芯片在数据中心中并非新鲜事物,但它通常被用于更多具有极端冷却,或高密度要求的定制硬件上,例如即将推出的高端 NVIDIA H100 (SMX) 服务器。相比之下,标准 PCIe 服务器更加注重兼容性。对于服务器视频卡 / 加速器,这意味着双插槽卡设计用于服务器机箱内的强制空气冷却。

随着技术的进步,数据中心正在以更大的容量推动液体冷却,以跟上随功率增大越来越热的硬件,并提高整体数据中心的能源效率。为此,英伟达发布的 A100 和 H100 PCIe 液冷版本,为数据中心客户提供了一种在其设施内安装液冷 PCIe 加速器的简单且官方支持的途径。其设计为由服务器供应商集成,它们使用开环设计,旨在用作更大的液体冷却装置的一部分。

除了更换冷却系统外,这些 AI 加速卡的规格保持不变。英伟达没有提高其中芯片的时钟速度,因此它们的性能应该与传统的风冷卡相同。这些新卡使用液体冷却提高了能源效率和密度,而非性能。

英伟达先期将推出 80GB A100 PCIe 加速卡的液冷版本,在今年第三季度向客户提供。与此同时,H100 PCIe 的液冷版本也在开发中,预计将在 2023 年初上市。

英伟达报告称,切换到液体冷却后,数据中心的整体电力用量会显著降低:2000 台服务器(4000 块 A100 卡)配置的总电力需求下降了 28%。这来自于交换机在整个数据中心的整体节能效果,包括降低温度提高计算卡能效到降低冷却水与运行大型空气冷却器的能源需求等方方面面。

此外,在 ComputeX 上,全球 30 多家领先技术合作伙伴在发布了首批基于 NVIDIA Jetson AGX Orin 的生产系统,其被用于边缘 AI、AIoT、机器人和嵌入式等应用。

NVIDIA Jetson AGX Orin 开发者套件自今年 3 月 GTC 大会开始在全球全面上市,其可提供每秒 275 万亿次运算性能。在针脚兼容性与外形尺寸相同的情况下,其处理能力超过前代产品 NVIDIA AGX Xavier 8 倍。

Jetson Orin 具有 NVIDIA Ampere 架构 GPU、Arm Cortex-A78AE CPU、下一代深度学习和视觉加速器、高速接口、更快的内存带宽并支持能够为多个并发 AI 应用管道提供数据的多模态传感器。

英伟达表示,全新的 Jetson AGX Orin 生产模块将为边缘 AI 带来服务器级的性能。该模块将于 7 月上市,Orin NX 模块将于 9 月上市。


参考内容:

https://www.anandtech.com/show/17405/nvidia-to-release-liquid-cooled-a100-and-h100-pcie-accelerators

产业GPUAI加速器英伟达
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

推荐文章
暂无评论
暂无评论~