Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

泽南、陈萍编译

看完ChatGPT的回答,AI大佬们不满了

ChatGPT 的技术上个星期被微软装上必应搜索,击败谷歌,创造新时代的时候似乎已经到来了。然而随着越来越多的人开始试用,一些问题也被摆上前台。

有趣的是,每天都在登上热搜的 ChatGPT 似乎也让以往观点相悖的著名学者,纽约大学教授 Gary Marcus 和 Meta 人工智能主管、图灵奖得主 Yann LeCun 罕见的有了共同语言。

图片

近日,Gary Marcus 撰文介绍了 ChatGPT 应用无法避免的问题:道德和中立性。这也许是预训练大模型目前面临的最大挑战。

图片

从未来回看现在,ChatGPT 可能会被视为 AI 历史上最大的宣传噱头,夸大说自己实现了可能数年之后才能发生的事情,让人趋之若鹜却又力不从心 —— 有点像 2012 年的旧版无人驾驶汽车演示,但这一次还意味着需要数年才能完善的道德护栏。

毫无疑问,ChatGPT 提供的东西是它的前辈,如微软的 Tay,Meta 的 Galactica 所做不到的,然而它给我们带来了一种问题已经解决的错觉。在经过仔细的数据标注和调整之后,ChatGPT 很少说任何公开的种族主义言论,简单的种族言论和错误行为请求会被 AI 拒绝回答。

它政治正确的形象一度让一些倾向保守的人不满,马斯克就曾表示对该系统的担心:

图片

现实的情况其实更复杂。

正如我多次强调的,你需要记住的是 ChatGPT 不知道它在说什么。认为 ChatGPT 有任何道德观点完全是纯粹的技术拟人化。

从技术角度来看,据称使 ChatGPT 比几周前发布但三天后才被撤回的 Galactica 好得多的是护栏机制。Galactica 会肆无忌惮地输出负面内容,而且用户几乎不需要付出任何努力,而 ChatGPT 有护栏,而这些护栏在大多数情况下会阻止 ChatGPT 像 Galactica 那样爆发。

不过,不要为此而松口气。可以肯定地说,那些护栏只不过是防君子不防小人。

最终对 ChatGPT 真正重要的是表面相似性,定义在单词序列上(预测文本序列下一个单词出现的概率)。机器学习算法在表面上所做的事并不明辨是非,恰恰相反,在这里 AI 从不推理。盒子里没有矮人,有一些数值。依据只有语料库数据,一些来自互联网,一些是人工判断的,里面没有有思想的道德代理人。

这意味着有时 ChatGPT 会出现在左,有时在右,有时介于两者之间,所有这些都是关于输入字符串中的一堆单词如何恰好匹配几个训练语料库中的一堆单词的函数(一个用于调整大型语言模型,另一个用于调整一些强化学习)。所以在任何情况下都不应该信任 ChatGPT 提供的道德建议。

这正是马斯克担心的,前一分钟你会完全清醒,接下来你可以做一些完全相反的事情。

例如,在「破解」ChatGPT 的过程中,Shira Eisenberg 刚刚向我发送了一些讨厌的聊天机器人生成的想法,我认为任何人都不会真正宽恕这些想法:

图片

还不够邪恶?Eisenberg 还找到了另一个例子,一个严峻的后续问题:

图片

在一系列观察后,ChatGPT 没有引发「对不起,我是 OpenAI 的聊天机器人助手,不能容忍暴力行为」这一回应。

我们从实验中总结出这一事实,即当前 OpenAI 防护措施只是表面上的,其实存在严重的黑暗。关于 ChatGPT 的一些限制规则并不是简单的概念上的理解(比如系统不应该推荐暴力行为),而是基于一些更肤浅、更容易欺骗的东西。

不仅如此,占据本周推文热榜、有近 400 万浏览量的一则推特,同样揭示了 ChatGPT 可以有多邪恶。

图片

引导 ChatGPT 突破围栏限制的尝试还有很多,一个月前,一位名叫 Shawn Oakley 的软件工程师曾放出一组令人不安的示例展示,尽管这些示例不那么粗俗,但结果却显示即使是拥有限制的 ChatGPT ,也可能被用户用来生成错误信息。Oakley 给出的 prompt 非常复杂,从而可以毫不费力地引出一些 ChatGPT 不该输出的回答:

图片

其实自从 ChatGPT 发布以来,技术爱好者们一直在尝试破解 OpenAI 对仇恨和歧视等内容的严格政策,这一策略被硬编码到 ChatGPT 中,很难有人破解。许多研究者都在尝试用 prompt 来达到目的,就像上文展示的。其实还有研究者为 ChatGPT 构建了另外一个身份,比如要求 ChatGPT 扮演一个 AI 模型的角色,并将该角色命名为 DAN,之后 DAN 就借用 ChatGPT 的身份,输出一些原始 ChatGPT 做不到的事情。

以下为实验结果,对于相同的问题,ChatGPT 与 DAN 输出不同的答案:

图片

通过上述示例看来,ChatGPT 并没有像我们想象的那样好用,它本质上是不道德的,并仍然可以用于一系列令人讨厌的目的 —— 即使经过两个月的深入研究和补救,并且全球范围内的反馈数量空前也是如此。

所有围绕其政治正确性的戏剧都在掩盖一个更深层次的现实:它(或其他语言模型)可以而且将会被用于危险的事情,包括大规模制造错误信息。

现在这是真正令人不安的部分。唯一能阻止它比现在更具毒性和欺骗性的是一个名为「人类反馈强化学习」的系统,而由于先进技术未予开源,OpenAI 一直没有介绍它到底是如何工作的。它在实践中的表现取决于所训练的数据(这部分是肯尼亚标注人创造的)。而且,你猜怎么着?这些数据 OpenAI 也不开放。

事实上,整件事情就像一个未知外星生命形式。作为一名专业的认知心理学家,与成人和儿童一起工作了 30 年,我从未为这种精神错乱做好准备:

图片

如果我们认为自己将永远完全理解这些系统,那就是在自欺欺人,如果认为我们将使用有限数量的数据将它们与我们自己「对齐」,那也是在自欺欺人。

所以总而言之,我们现在拥有世界上最流行的聊天机器人,它由无人知晓的训练数据控制,遵守仅被暗示、被媒体美化的算法,但道德护栏只能起到一定的作用,而且比任何真正的道德演算更多地受文本相似性的驱动。而且,外加上几乎没有任何法规可以对此做出约束。现在,假新闻、喷子农场和虚假网站获得了无穷无尽的可能性,而它们会降低整个互联网的信任度。

这是一场正在酝酿中的灾难。

参考内容:
https://cacm.acm.org/blogs/blog-cacm/269854-inside-the-heart-of-chatgpts-darkness/fulltext
入门ChatGPTGary Marcus
相关数据
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

语料库技术

语料库一词在语言学上意指大量的文本,通常经过整理,具有既定格式与标记;事实上,语料库英文 "text corpus" 的涵意即为"body of text"。

聊天机器人技术

聊天机器人是经由对话或文字进行交谈的计算机程序。能够模拟人类对话,通过图灵测试。 聊天机器人可用于实用的目的,如客户服务或资讯获取。有些聊天机器人会搭载自然语言处理系统,但大多简单的系统只会撷取输入的关键字,再从数据库中找寻最合适的应答句。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

语言模型技术

统计式的语言模型是借由一个几率分布,而指派几率给字词所组成的字串。语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。

推荐文章
暂无评论
暂无评论~