Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

大AI巧用「砌砖」方法:LLM可通过将任务「外包」给专业领域的AI模型来提高其性能

编辑 | 白菜叶

大型语言模型(LLM)功能的快速改进使它们能够处理范围广泛的任务,但仍有许多问题无法解决。新的研究表明,让 LLM 将工作外包给规模较小的专业 AI 可以显著扩大其范围。

当今领先的 LLMs 能够取得一些令人印象深刻的成就,包括在美国律师协会考试中取得优异成绩和编码视频游戏。但他们的能力本质上仍然主要是语言方面的。正在努力使这些模型能够处理更多不同类型的数据并解决更广泛的问题。例如,OpenAI 最大的 GPT-4 模型是多模式的,在接受了语言和图像数据的训练后,现在可以分析图片和文本。

美国新泽西州罗格斯大学(Rutgers University)的研究人员认为,与其试图创建一个能解决各种问题的全能模型,不如加强利用已经为解决更专业问题而优化的专业人工智能系统。他们的新方法允许人类用自然语言描述任务,然后 LLM 再将几个专业 AI 拼凑在一起,从而在使用之前对其进行分析。负责该项目的罗格斯大学助理教授张永锋表示,这种类似于 Stickle Brick 的 AI 方法,可以将几十年来 AI 取得的所有突破,整合到一个单一的通用多面手系统中。

「这些 LLM 具有一些基本能力,可以操纵不同的工具和模型来解决一些基本任务。」他说,「随着越来越多的模块、工具和领域专家模型的加入,这些模型自然会扩展它们解决更多不同任务的能力。」

张永锋团队创建了一个名为 OpenAGI 的软件平台,该平台可以将各种预训练的 LLM 同其他特定领域的 AI 模型连接在一起。在最新的预印本中,他们描述了三种 LLM 的实验——OpenAI 的 GPT-3.5、Meta 的 LLaMA 和谷歌的 FLAN-T5——以及许多专门从事情感分析、翻译、图像分类、图像去模糊、图像字幕和文本到图像生成等任务的小型模型。

图片

论文链接:https://arxiv.org/abs/2304.04370

开源链接:https://github.com/agiresearch/OpenAGI

用户向 LLM 提供任务的自然语言描述和相关数据集。一个例子可能是「给定一个模糊的灰度图像,我们如何回答关于它的书面问题?」 LLM 分析任务并制定解决问题的分步计划,使用 AI 模型的自然语言描述来确定将哪些拼凑在一起以及以什么顺序拼凑。在这个例子中,这可能涉及使用去模糊模型来提高图像质量,然后是另一个可以为照片着色的模型,最后是一个可以回答有关图片问题的模型。

张永锋表示,这种方法的强大之处在于它搭载了人类语言的巨大表达能力,可以用来解释几乎任何问题或模型能力。「要真正开发通用人工智能系统,人类应该开发某种技术方法,以一种数据格式统一不同的挑战。」张永锋说,「语言自然而然地充当了描述许多不同任务的媒介。」

罗格斯大学的团队并不是唯一探索这种方法的团队。上个月,微软和浙江大学的研究人员推出了一个名为 HuggingGPT 的系统,它将 OpenAI 的 ChatGPT 服务连接到 Hugging Face 的人工智能模型库。用户提供他们想要完成的任务的自然语言解释,ChatGPT 将制定计划,选择并运行完成任务所需的模型,然后将结果编译成自然语言响应供用户使用。

张永锋说,这两种方法之间的一个显著区别是 HuggingGPT 依赖于一种只能通过公司 API 访问的模型。罗格斯大学团队的方法与 LLM 无关并且是开源的。这方面的一个优点是它可以训练 LLM 更好地应对任务规划挑战,无论是使用人工设计的示例还是使用对其性能的反馈来重新训练模型。

在测试中,该小组表明,只有通过公司 API 才能访问的具有 170 亿个参数的 GPT-3.5,在没有向模型提供有关如何解决问题的提示或仅提供少量示例的提示时,取得了最佳结果。但是,当使用性能反馈对只有 7.7 亿个参数的 FLAN-T5 进行再训练时,它在无提示场景下的表现明显优于 GPT-3.5。

OpenAGI 和 HuggingGPT 都是最近将 LLM 链接到其他 AI 模型和数字工具的重要研究,通常使用 API。其他突出的例子包括微软的 TaskMatrix.AI、Meta 的 Toolformer 和艾伦研究所的 VISPROG。Google Brain 的软件工程师 Mahesh Sathiamoorthy 表示,无论是将任务卸载到其他 AI 模型还是更简单的软件,其想法都大同小异。他认为,与多模式训练方法相比,这种方法可能是提高未来人工智能能力的更有希望的途径。

他在一封电子邮件中写道:「一个可以完成所有工作的模型在质量方面可能会更好,但训练和服务这样的模型是不切实际的……我们已经拥有许多优秀的特定领域模型和特定领域的知识库(例如谷歌)。所以更容易使用它们。」

然而,德国波茨坦大学计算语言学教授 David Schlangen 对罗格斯大学团队为他们的模型起的名字提出异议。AGI 代表「通用人工智能」,指的是一种假想的 AI 系统,它模仿人类所见的通用智能。虽然这些新模型确实是推动 LLM 超越简单处理文本任务的尝试,但 Schlangen 表示,它们仍然没有提供解决关键缺陷的方法,例如编造事实的倾向。「这不能算『通用人工智能』框架,充其量是一种误导。」他说。

相关报道:https://spectrum.ieee.org/large-language-models

产业
暂无评论
暂无评论~