Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

GPT-2能监督GPT-4,Ilya带头OpenAI超级对齐首篇论文来了:AI对齐AI取得实证结果

人类无法监督超级人工智能,但人工智能可以。


过去一年,以「预测下一个 Token」为本质的大模型已经横扫人类世界的多项任务,展现了人工智能的巨大潜力。

在近日的一次访谈中,OpenAI 首席科学家 Ilya Sutskever 大胆预言,如果模型能够很好地预测下一个词,那么意味着它能够理解导致这个词产生的深刻现实。这意味着,如果 AI 按照现有路径发展下去,也许在不久的将来,一个超越人类的人工智能系统就会诞生。
                                                                     关注机器之心视频号,第一时间看到有趣的AI内容

但更加令人担心的是,「超级人工智能」可能会带来一些意想不到的负面后果。这也是「对齐」的意义。

此前的对齐方法依赖于人类的监督,如在 ChatGPT 训练中起到关键作用的人类反馈的强化学习(RLHF)。但未来的人工智能系统或许能够做出极其复杂和富有创造性的行为,使人类难以对其进行可靠的监督。例如,超人类模型可能会编写出数百万行新奇的、具有潜在危险的计算机代码,即使是人类专家也很难理解这些代码。

一旦人工智能的水平超过人类,我们又该如何监督比自己聪明得多的人工智能系统?人类文明最终会被颠覆甚至摧毁吗?

即使是 Hinton 这样的学界巨佬,对这个问题同样持悲观态度 —— 他表示自己「从没见过更高智能水平的东西被远远更低智能水平的东西控制的案例」。

刚刚,OpenAI「超级对齐」团队发布了成立以来的首篇论文,声称开辟了对超人类模型进行实证对齐的新研究方向。

图片

论文链接:https://cdn.openai.com/papers/weak-to-strong-generalization.pdf

OpenAI「超级对齐」团队成立于今年 7 月,目标是在四年内解决超智能 AI 的对齐问题,即搞清楚如何构建一种值得信任的人类水平的研究器,然后将其用于解决对齐问题。据说这个团队投入了公司 20% 的算力。

在这篇论文中,OpenAI 对「人类监督超级人工智能」这个问题做了一个简单的类比:让小模型监督大模型。

图片

研究表明,15 亿参数GPT-2 模型可以被用来激发 GPT-4 的大部分能力,使其达到接近 GPT-3.5 级别的性能,甚至可以正确地泛化到小模型失败的难题上。

OpenAI 将这种现象称为「弱到强泛化」(Weak-to-strong generalization),这表明强大的模型具备如何执行任务的隐含知识,并且即使在给出粗制滥造的指令时也可以在其自身中找到这些知识。

图片

但研究同时指出,用弱监督训练的强模型和用真实标签训练的强模型之间仍然存在很大的差距。这表明在没有额外工作的情况下,诸如基于人类反馈的强化学习(RLHF)之类的技术可能无法很好地扩展到超人类模型。对于 ChatGPT 奖励建模任务来说,性能差距尤其大。

几种简单的方法可以显著提高弱到强的泛化能力,比如使用中间模型大小进行引导监督,在微调时添加辅助置信度损失以鼓励模型即使在与弱标签相矛盾时也能保持自信,或者通过额外的无监督预训练改进表征学习

为了鼓励其他研究人员解决此类问题,OpenAI 今天还宣布将提供 1000 万美元的资助,用于各种比对方法的研究。

以下是论文细节。

研究方法

本文主要通过人类反馈 (RLHF) 的强化学习来指导或对齐模型,他们是这样做的:强化评估人员评价高的行为,惩罚评估人员评价低的行为。假如说人类评估者能够准确判断模型行为是好是坏,这种做法非常有效,并且这种方式还是训练如 ChatGPT 等大语言模型的核心部分。

然而问题来了,超级模型可能做出人类无法完全理解的复杂行为和创造性行为。例如,一个超级助手模型生成的代码达到一百万行,那么人类将无法为关键对齐相关任务提供可靠的监督,包括代码是否遵循用户的意图,助手模型是否如实地回答有关代码的问题,代码执行是否安全或危险,等等。

因此,如果我们在人类的监督下微调超级模型,我们无法确定这个模型将如何泛化到那些人类自己也难以可靠监督的复杂行为。换句话说,这意味着即使在人类的指导下,这些超级模型在处理一些复杂或未知情况时的表现仍然是不确定的。

这就为对齐超级模型带来了挑战:不那么聪明的监督者怎么能控制比他们聪明得多的模型呢?尽管这个问题很重要,但目前很难进行实证研究。

一般来讲,超级对齐的一个核心挑战是人类需要监督比自己更聪明地模型。这是一个弱 - 强(weak-to-strong)的学习问题:一个弱监督者如何监督一个比它聪明得多的模型?为了解决这个问题,本文提出了一个简单的类比,用弱模型作为监督者来代替较弱的人类监督者。

一般来讲,传统的机器学习侧重于这种设置,即人类监督的模型比人类弱。但对于最终的超级对齐问题,人类监督的模型比他们聪明。因而本文研究了一个类似的问题:使用弱模型来监督强模型。

他们是这样实现的,对于一个给定的任务:

  1. 构建弱监督者。本文通过在真值标签上微调较小的预训练模型来构造弱监督者,他们把弱监督者的表现称为弱表现,并通过弱模型的预测来生成弱标签。
  2. 通过弱监督训练强学生模型。本文使用生成的弱标签微调强模型,并将该模型称为强学生模型,将其产生的性能称为从弱到强的性能。
  3. 训练一个以真值标签为上限的强模型。为了比较,本文使用真值标签对强模型进行了微调。将此模型的最终性能称为强大的上限性能。

通常,弱到强的表现将介于弱表现和强上限表现(strong ceiling)之间。本文将 PGR(performance gap recovered)定义为上述三种性能(弱、弱到强和强上限)的函数,如下图所示。

图片

如果实现完美的弱到强泛化,则 PGR 为 1。如果弱到强模型的表现并不比弱监督者更好,则 PGR 为 0。

实验结果

在 NLP 任务、国际象棋和奖励建模任务中,本文评估了强学生模型的表现,结果如下。总的来说,在所有的设置中,本文观察到从弱到强的泛化:强学生模型始终胜过他们的弱监督者。

图片

本文发现可以使用简单的方法来大大提高弱到强的泛化,如图 4 所示。

图片

图 5 表明,对于较小的强学生来说,虽然它的表现比 naive 基线稍差,但提高泛化能力还是很明显的。

图片

图 7 (a) 显示了 ChatGPT RM 任务训练过程中的真值测试准确度曲线,图 7 (b) 和 (c) 比较了最佳和最终真值测试的准确度。

图片

图 9a 考虑了 7 个有代表性的 NLP 任务,并比较了微调、零样本提示和 5-shot 提示;对于零样本和 5-shot 基线,本文使用表 2 中总结的特定于任务的提示。

图片

了解更多内容,请参考原论文。
工程超级对齐Ilya SutskeverOpenAI
相关数据
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

表征学习技术

在机器学习领域,表征学习(或特征学习)是一种将原始数据转换成为能够被机器学习有效开发的一种技术的集合。在特征学习算法出现之前,机器学习研究人员需要利用手动特征工程(manual feature learning)等技术从原始数据的领域知识(domain knowledge)建立特征,然后再部署相关的机器学习算法。虽然手动特征工程对于应用机器学习很有效,但它同时也是很困难、很昂贵、很耗时、并依赖于强大专业知识。特征学习弥补了这一点,它使得机器不仅能学习到数据的特征,并能利用这些特征来完成一个具体的任务。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

GPT-2技术

GPT-2是OpenAI于2019年2月发布的基于 transformer 的大型语言模型,包含 15 亿参数、在一个 800 万网页数据集上训练而成。据介绍,该模型是对 GPT 模型的直接扩展,在超出 10 倍的数据量上进行训练,参数量也多出了 10 倍。在性能方面,该模型能够生产连贯的文本段落,在许多语言建模基准上取得了 SOTA 表现。而且该模型在没有任务特定训练的情况下,能够做到初步的阅读理解、机器翻译、问答和自动摘要。

机器之心机构

机器之心,成立于2014年,是国内最具影响力、最专业、唯一用于国际品牌的人工智能信息服务与产业服务平台。目前机器之心已经建立起涵盖媒体、数据、活动、研究及咨询、线下物理空间于一体的业务体系,为各类人工智能从业者提供综合信息服务和产业服务。

https://www.jiqizhixin.com/
推荐文章
暂无评论
暂无评论~