Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

黄仁勋亲自给OpenAI送货,全球首台DGX H200开箱了

又是一张历史性大合照。

今天,黄仁勋又来送 AI 芯片了,还是超强悍的那种。

OpenAI 联合创始人、总裁 Greg Brockman 发推,晒出了自己、OpenAI CEO 奥特曼与英伟达创始人兼 CEO 黄仁勋的合照。

他表示,老黄亲自为 OpenAI 送来了全球第一台 Nvidia DGX H200 超级计算机,此举意在双方共同推进 AI、计算和人类的发展。

图片

不过,网友更关注的依然是 OpenAI 联合创始人、首席科学家 Ilya Sutskever。自去年 12 月 15 日转推了 OpenAI 的一个帖子以来,他已经在 X 上「消失」了四个多月。

图片

有网友调侃到,Ilya 是不是在边上的箱子里呢?

图片

还有人 P 了一张 Ilya 与奥特曼搭肩的合照。

图片

把最强 AI 算力赠送给业界先进研究机构,这件事英伟达已不是第一次做了。

今年 2 月,马斯克还在 X 上回忆了老黄向 OpenAI 捐赠 DGX-1 服务器的那张经典照片。作为 OpenAI 的联合创始人,彼时马斯克还没有因为「利益冲突」和开源等问题与 OpenAI 反目成仇。

图片

                       2016 年,黄仁勋亲自向 OpenAI 赠送了全球第一台 DGX-1,马斯克也在接收现场。

或许就是这个举动,催生了 ChatGPT 的到来。

DGX-1 被英伟达称作为「AI 超级计算机」,当时捐赠的版本价值 12.9 万美元,集成了 8 块 Tesla P100(Pascal 架构)GPU,整个系统的机器学习算力为 170 teraflops(FP16)。

在此之后,英伟达陆续推出了 DGX-2(Volta 架构)、DGX A100 服务器(Ampere 架构),持续引领了 AI 算力的最高水平。

今天赠送给 OpenAI 的 DGX H200,是去年 11 月在全球超算大会上推出的最新产品。英伟达在官方博客中曾表示:H200 Tensor Core GPU 具有改变游戏规则的性能和内存功能,可增强生成式 AI 和高性能计算 (HPC) 工作负载。单块 H200 的 FP16 算力是 1979 TFLOPS。

作为首款采用 HBM3e 的 GPU,H200 借助更大更快的内存可加速生成式 AI 和大型语言模型 (LLM) 的运行,同时推进 HPC 工作负载的科学计算。

图片

老黄送显卡,看来正在成为英伟达的惯例。不过还有一个不得不说的故事,就是神经网络刚刚兴起的时候,英伟达曾经「拒绝」过人工智能先驱 Geoffrey Hinton。

2009 年 Hinton 的研究小组在使用英伟达的 CUDA 平台训练神经网络来识别人类语音。他对研究结果的质量感到惊讶,并于当年晚些时候的一次会议上介绍了这些结果。Hinton 联系了英伟达,「我发了一封电子邮件说,听着,我刚刚告诉一千名机器学习研究人员,他们应该去购买英伟达 GPU。你能给我免费寄来一份吗?」结果英伟达拒绝了。

尽管受到冷落,Hinton 仍然鼓励他的学生使用 CUDA,其中包括传奇学者 Alex Krizhevsky。2012 年,Krizhevsky 和他的研究伙伴 Ilya Sutskever 在预算紧张的情况下从亚马逊购买了两张 GeForce 显卡,训练视觉识别神经网络,这才有了一代经典 AlexNet。

不过在 2018 年 9 月,在一次庆祝英伟达多伦多 AI 实验室(Toronto AI Lab)成立的会上,黄仁勋送给了 Hinton 一块 TITAN V 显卡。这也算是弥补了当初拒绝 Hinton 的遗憾。

图片

                             图源:https://twitter.com/PengDai_ca/status/1043496117244170240

除了交付 AI 算力,英伟达在投资领域也有新的动向。本周三据彭博社等媒体报道,英伟达正式宣布有意收购 AI 基础设施管理平台 Run:ai。该交易的价值并未透露,但估计约为 7 亿美元。

Run:ai 由 Omri Geller(首席执行官)和 Ronen Dar (首席技术官)于 2018 年创立。该公司开发了一个并行算力的编排和虚拟化软件层,以满足在 GPU 和类似芯片组上运行的人工智能工作负载的独特需求。Run:ai 基于 Kubernetes 的 AI 云容器平台通过自动分配必要的计算能力(从部分 GPU 到多个 GPU,再到多个 GPU 节点),能够帮助用户有效地池化和共享 GPU。

不断扩充朋友圈,同时资助构建 GPU 算力的公司,英伟达的 AI 版图已越来越大。

参考内容:

https://twitter.com/gdb/status/1783234941842518414

https://www.bloomberg.com/news/articles/2024-04-24/nvidia-agrees-to-acquire-israeli-ai-software-provider-run-ai

产业Nvidia DGX H200英伟达OpenAI
相关数据
池化技术

池化(Pooling)是卷积神经网络中的一个重要的概念,它实际上是一种形式的降采样。有多种不同形式的非线性池化函数,而其中“最大池化(Max pooling)”是最为常见的。它是将输入的图像划分为若干个矩形区域,对每个子区域输出最大值。直觉上,这种机制能够有效的原因在于,在发现一个特征之后,它的精确位置远不及它和其他特征的相对位置的关系重要。池化层会不断地减小数据的空间大小,因此参数的数量和计算量也会下降,这在一定程度上也控制了过拟合。通常来说,CNN的卷积层之间都会周期性地插入池化层。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

强生机构

强生公司成立于1886年,是全球最具综合性、业务分布范围广的医疗健康企业之一,业务涉及制药、医疗器材及消费品三大领域。强生坚信健康是活力人生、繁荣社区和不断进步的基础。正因如此,130多年来,公司始终致力于推进健康事业,让人们在每个年龄段和每个人生阶段都保持健康。

http://www.jnj.com/
推荐文章
暂无评论
暂无评论~