Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

吴恩达:四个步骤,让大模型变得更好

本周,生成式 AI 的竞争达到了新的高潮。

前有 OpenAI 抢先发布 GPT-4o,后有谷歌在 I/O 开发者大会上发布一系列生成式人工智能模型与产品。

自 2022 年 11 月 OpenAI 推出 ChatGPT,至今已有 18 个月。学界、业界为了提升生成式 AI 模型的能力,做出了诸多努力。

今天,著名人工智能学者、斯坦福大学教授吴恩达高度总结了提升生成式 AI 模型能力的方式,主要包括:1)提升模型的推理能力;2)扩展上下文窗口,并撰写一篇博客阐述了一套通用且高效的 prompt 策略。

图片

我们对博客内容进行了不改变原意的编译、整理,以下是博客内容:

本周,谷歌宣布将 Gemini Pro 1.5 的输入上下文窗口扩大一倍,从 100 万 token 扩展到 200 万 token;OpenAI 发布了 GPT-4o,它的生成速度是 GPT-4 Turbo 的 2 倍,而且便宜 50%,原生支持输入、生成多模态 token。这是 18 个月以来的最新进展。

自 2022 年 11 月 ChatGPT 推出以来,随着 GPT-4、Gemini 1.5 Pro、Claude 3 Opus 和 Llama 3-70B 的发布等重要里程碑的到来,许多模型提供商通过两个重要方式提高了自己的能力:

  • 提升模型的推理能力,使 LLM 能够思考复杂的概念并遵循复杂的指令; 

  • 更长的输入上下文窗口。

GPT-4 和其他高级模型的推理能力使它们非常擅长解释带有详细说明的复杂 prompt。许多人习惯向 LLM 快速提出 1 - 2 句话的查询。相比之下,在构建应用程序时,我看到经验丰富的团队经常编写可能长达 1 - 2 页的 prompt(我的团队称其为「mega-prompt」),这些 prompt 提供复杂的指令来详细说明我们希望 LLM 如何执行一个任务。我仍然认为团队在编写详细指令方面做得不够好。有关中等长度 prompt 的示例,请查看 Claude 3 的系统 prompt,详细且为 Claude 应该如何执行任务提供了明确的指导。

图片

这是一种与我们通常在 LLM 网络用户界面中使用的非常不同的 prompt 方式。在这种方式中,我们可能会快速进行查询,如果响应不满意,则通过与聊天机器人反复对话来表述清楚我们想要什么。

此外,输入上下文窗口长度的增加为开发人员的工具箱添加了另一种技术。GPT-3 激发了关于小样本上下文学习的大量研究。例如,如果您使用 LLM 进行文本分类,您可能会提供一些(例如 1 - 5 个)文本片段及其类别标签的样本,以便它可以泛化到其他文本。

GPT-4o 接受 128000 个输入 token,Claude 3 Opus 200000 个 token,Gemini 1.5 Pro 100 万个 token(200 万个 token 目前仅适用于预览版)。然而,随着输入上下文窗口变得越来越长,人们发现 LLM 并不局限于少数样本。通过多样本(many-shot)学习,开发人员可以在 prompt 中给出数十个甚至数百个样本,这比少样本(few-shot)学习效果更好。

在构建复杂的工作流时,我看到开发人员通过如下过程获得了良好的结果:

  1. 编写快速、简单的 prompt,看看效果如何。

  2. 根据输出不足的地方,迭代地充实 prompt。这通常会导致更长、更详细的 prompt,甚至可能是「mega-prompt」。

  3. 如果这仍然不够,请考虑少样本或多样本学习(如果适用),或者不太频繁地进行微调。

  4. 如果仍然不能产生您需要的结果,请将任务分解为子任务并应用智能体工作流

我希望这个过程能够帮助大家更轻松地构建应用程序。如果您有兴趣更深入地研究 prompt 策略,我推荐 Medprompt 论文,其中列出了一组复杂的 prompt 策略,可以带来非常好的结果。

图片

                               Medprompt 论文,链接:https://arxiv.org/pdf/2311.16452

参考链接:

https://twitter.com/AndrewYNg/status/1791134037178020308

https://www.deeplearning.ai/the-batch/issue-249/

产业吴恩达生成式 AI
1
相关数据
吴恩达人物

斯坦福大学教授,人工智能著名学者,机器学习教育者。2011年,吴恩达在谷歌创建了谷歌大脑项目,以通过分布式集群计算机开发超大规模的人工神经网络。2014年5月16日,吴恩达加入百度,负责“百度大脑”计划,并担任百度公司首席科学家。2017年3月20日,吴恩达宣布从百度辞职。2017年12月,吴恩达宣布成立人工智能公司Landing.ai,并担任公司的首席执行官。2018年1月,吴恩达成立了投资机构AI Fund。

所属机构
人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

文本分类技术

该技术可被用于理解、组织和分类结构化或非结构化文本文档。文本挖掘所使用的模型有词袋(BOW)模型、语言模型(ngram)和主题模型。隐马尔可夫模型通常用于词性标注(POS)。其涵盖的主要任务有句法分析、情绪分析和垃圾信息检测。

聊天机器人技术

聊天机器人是经由对话或文字进行交谈的计算机程序。能够模拟人类对话,通过图灵测试。 聊天机器人可用于实用的目的,如客户服务或资讯获取。有些聊天机器人会搭载自然语言处理系统,但大多简单的系统只会撷取输入的关键字,再从数据库中找寻最合适的应答句。

查询技术

一般来说,查询是询问的一种形式。它在不同的学科里涵义有所不同。在信息检索领域,查询指的是数据库和信息系统对信息检索的精确要求

推荐文章
暂无评论
暂无评论~