这是黄老板在近四年里进行的首次现场演讲。
今天上午,在台北国际电脑展 ComputeX 上,英伟达联合创始人黄仁勋发表演讲。在近两小时的 Keynote 中,黄仁勋回顾了计算机软硬件的发展历程,强调了英伟达为推动技术进步所做的努力。在英伟达看来,自 PC 时代开始,我们已经历了个人电脑、互联网、移动网络 + 云技术三个时代,现在正在进入 AI 的时代。
毋庸置疑,时代的进步很大程度上取决于算力的发展。以 GPU 为代表的加速算力正在取代 CPU,现在随着生成式 AI 的爆发,世界正在进入新的计算时代。
一组由 960 组 CPU 组成,成本 1000 万美元的服务器功耗是 1.1 GWh,172 块 GPU 组成的服务器售价高达 3400 万美元,能耗相同,但训练大语言模型的速度足足是 CPU 的 150 倍。「这就是买得越多,省得越多,」黄仁勋说道。
这种指数级加速的算力的应用方向是什么?黄仁勋预言,未来每个公司都必须有自己专属的 AI 系统,生成式 AI 系统会把许多不同的数据通过基于 Transformer 的大模型自由地处理成人们想要的结果,不论单纯的文字、语音、图片,还是蛋白质、分子结构的任务,都能通过 AI 大规模实现。
在活动中,黄仁勋宣布了全新自研 GPU + 自研 CPU 混合架构的 GH200 GRACE HOPPER 超级芯片正式投产,其旨在助力开发面向生成式 AI 语言应用、推荐系统和数据分析工作负载的巨型、下一代模型。
NVIDIA DGX GH200 的超大共享内存空间通过 NVLink 互连技术以及 NVLink Switch System 使 256 个 GH200 超级芯片相连,使它们能够作为单个 GPU 运行。其提供 1 exaflop 的性能和 144 TB 的共享内存相较 2020 年推出的上一代 DGX A100 内存大了近 500 倍。
GH200 是专为 AI 大模型、高性能运算(HPC)而设计的芯片。在发布的同时,英伟达宣布谷歌云、 Meta、微软都将成为采用由 GH200 GRACE HOPPER 组成的 DGX GH200 服务器产品的首批客户。
基于 GH200,英伟达还在打造自己的新一代超级计算机,以支持研发团队的工作。
这台名为 NVIDIA Helios 的超级计算机将配备四个 DGX GH200 系统。每个都将通过 NVIDIA Quantum-2 InfiniBand 网络互连,以提高训练大型 AI 模型的数据吞吐量。Helios 将包含 1024 个 Grace Hopper 超级芯片,预计将于今年年底上线。
除了 GH200 之外,黄仁勋也介绍了 NVIDIA Spectrum-X 网络平台,这是一个加速网络平台,致力于提高基于以太网 AI 云的性能与效率。将 Spectrum-4 以太网交换机与 BlueField-3 DPU 紧密结合,可以取得 1.7 倍的整体 AI 性能和能效提升,同时可在多租户环境中提供一致、可预测的性能。
这种端到端的功能交付,可以减少基于 transformer 的大规模生成式 AI 模型的运行时间,助力网络工程师、AI 数据科学家和云服务商及时取得更好的结果,并更快做出明智的决策。
作为 NVIDIA Spectrum-X 参考设计的蓝图和测试平台,NVIDIA 正在构建一台超大规模生成式 AI 超级计算机,命名为 Israel-1。它将被部署在 NVIDIA 以色列数据中心,由基于 NVIDIA HGX 平台的戴尔 PowerEdge XE9680 服务器, BlueField-3 DPU 和 Spectrum-4 交换机等打造而成。
在软件方面,英伟达本次也介绍了云服务 NVIDIA AI Foundation,可以帮企业训练出自己专属的生成式 AI ,在文本、图像内容甚至是生物数据等领域中实现定制化 AI。另外,工业元宇宙服务 NVIDIA Omniverse 也宣布登陆微软 Azure 云上,旨在为 7000 亿美元规模的数字广告市场打造 AI 内容引擎。
参考内容:
https://www.youtube.com/watch?v=fHwmLOYJU_w