Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

Sam Altman谈OpenAI:面临GPU短缺恐慌,GPT-3或将开源

眼下 OpenAI 面临的最大问题是「缺芯」。

从 ChatGPT 问世以来,大模型和 AI 技术就引起全世界的广泛关注。一方面,人们惊叹于大模型的涌现能力,另一方面又对人工智能的可控性及未来发展产生担忧。今年已有包括图灵奖得主 Geoffrey Hinton、Yoshua Bengio 在内的 AI 领域专家等众多业内人士多次联合警告 AI 大模型将引发一系列风险,甚至有人呼吁叫停 GPT-4 后续 AI 大模型的研发。

OpenAI 作为 ChatGPT、GPT-4 等大模型背后的公司,无疑被推上了风口浪尖。OpenAI 的 CEO Sam Altman 近期正在全球巡回演讲,旨在消除人们对人工智能的「恐惧」,并听取 OpenAI 产品的开发人员和用户的意见。

图片

据《Fortune》报道,5 月 Sam Altman 与一些开发人员和初创公司创始人闭门会面,并讲述了 OpenAI 的路线图和面临的挑战。这场闭门会的参与者之一 ——Humanloop 的联合创始人兼 CEO Raza Habib 最近在一篇博客中提及了 OpenAI 的产品规划和发展瓶颈。

原博客现已删除,但有网友上传了博客快照(副本),我们来看一下博客的具体内容:

OpenAI 现在面临的最大问题是受限于 GPU

目前 OpenAI 面临非常严峻的 GPU 限制,这也延迟了他们一些短期计划的实施。近来,客户投诉最多的是关于 API 的可靠性和速度问题。Sam 承认了这个问题,并解释说客户抱怨的大部分问题是由于 GPU 短缺造成的。

在处理文本方面,更长的 32k 上下文还不能面向更多人推出。现在 OpenAI 还没有完全克服注意力机制的 O (n^2) 扩展问题,虽然 OpenAI 似乎很快就能实现 100k-1M token 上下文窗口(在今年内)文本处理,但更大的文本处理窗口需要进一步的研究突破。

不仅如此,目前,微调 API 也受到 GPU 供应的限制。OpenAI 尚未使用像 Adapters 或 LoRa 这样的高效微调方法,因此微调运行和管理起来计算都非常密集。Sam 透漏更好的微调技术将在未来推出,他们甚至可能提供一个社区专门研究模型。

此外,专用容量提供也受到 GPU 供应的限制。OpenAI 还提供专用容量,为客户提供一个私有的模型副本。要使用此服务,客户必须愿意预先承诺支出 10 万美元。

OpenAI 的近期路线图

在交谈中,Sam 分享了 OpenAI API 的近期路线图,主要分两个阶段:

2023 的路线:

  • OpenAI 的首要任务是推出更便宜、更快的 GPT-4—— 总的来说,OpenAI 的目标是尽可能地降低智能成本(the cost of intelligence),因此随着时间的推移,API 的成本将会降低。

  • 更长的上下文窗口 —— 在不久的将来,上下文窗口可能高达 100 万个 token。

  • 微调 API—— 微调 API 将扩展到最新的模型,但其确切形式将由开发人员决定。

  • 状态 API—— 现在调用聊天 API 时,你必须反复地通过相同的会话历史,并一次又一次地为相同的 toke 进行支付。将来版本的 API 可以记住会话历史记录。

  • 2024 年路线:

  • 多模态 —— 这是作为 GPT-4 版本的一部分进行演示的,但在更多 GPU 上线之前不能扩展到所有人。

插件没有 PMF,也不会很快出现在 API 中

很多开发人员都对通过 API 访问 ChatGPT 插件感兴趣,但 Sam 说他认为这些插件短期内不会发布。除了浏览之外,插件的使用表明他们还没有 PMF。Sam 指出,很多人希望自己的应用程序位于 ChatGPT 之内,但他们真正想要的是应用程序中的 ChatGPT。

除了与类 ChatGPT 竞争外,OpenAI 将避免与其客户竞争

很多开发者表示,当 OpenAI 发布新产品时,他们对使用 OpenAI API 构建的应用程序感到紧张,因为 OpenAI 最终可能会发布与他们竞争的产品。Sam 表示 OpenAI 不会发布 ChatGPT 之外更多的产品。他说有很多伟大的平台公司都有一个杀手级的应用程序,ChatGPT 将允许他们通过成为自己产品的客户来使 API 更好。ChatGPT 的愿景是成为一个超级智能的工作助手,但 OpenAI 不会涉足许多其他 GPT 的用例。

监管是必要的,但开源也是必要的

尽管 Sam 主张对未来的模型进行监管,但他并不认为现有的模型存在危险,并认为对它们进行监管或禁止将是一个巨大的错误。他再次强调了开源的重要性,并表示 OpenAI 正在考虑开源 GPT-3。OpenAI 之所以迟迟未能开源的部分原是因为他们觉得没多少人和公司有能力妥善管理如此大型的语言模型

扩展定律仍然存在

最近许多文章都声称「巨型人工智能模型的时代已经结束」。Sam 表示这并没有准确地表达他的意思。

OpenAI 的内部数据显示,扩展定律仍然成立,而且增大模型的规模将继续提高性能。然而,模型的规模无法一直按照相同的比例增加,因为在短短几年内,OpenAI 已经使模型规模增大了数百万倍,继续这样做将不可持续。但这并不意味着 OpenAI 将停止努力使模型变得更大,而是意味着它们可能每年增加一倍或三倍的规模,而不是呈几个数量级的增长。

扩展模型仍然有效,这一事实对 AGI 的发展具有重要意义。扩展规模的理念是,我们可能已经有构建 AGI 所需的大部分要素,而剩下的大部分工作将采用现有的方法,并将它们扩展到更大的模型和更大的数据集上。如果模型扩展时代已经结束,我们到达 AGI 的时间将会更久。扩展定律仍然适用的事实暗示着我们会用更短的时间实现 AGI。

参考链接:

https://web.archive.org/web/20230601000258/https://website-nm4keew22-humanloopml.vercel.app/blog/openai-plans

产业OpenAI
相关数据
人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

规划技术

人工智能领域的「规划」通常是指智能体执行的任务/动作的自动规划和调度,其目的是进行资源的优化。常见的规划方法包括经典规划(Classical Planning)、分层任务网络(HTN)和 logistics 规划。

注意力机制技术

我们可以粗略地把神经注意机制类比成一个可以专注于输入内容的某一子集(或特征)的神经网络. 注意力机制最早是由 DeepMind 为图像分类提出的,这让「神经网络在执行预测任务时可以更多关注输入中的相关部分,更少关注不相关的部分」。当解码器生成一个用于构成目标句子的词时,源句子中仅有少部分是相关的;因此,可以应用一个基于内容的注意力机制来根据源句子动态地生成一个(加权的)语境向量(context vector), 然后网络会根据这个语境向量而不是某个固定长度的向量来预测词。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

推荐文章
暂无评论
暂无评论~