Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

AI知道苹果是什么吗?DeepMind语言模型科学家正把这些概念变得可量化、可测试

编辑 | 白菜叶

与计算机科学家 Ellie Pavlick 谈论她的工作——寻找大语言模型 (LLM) 中理解的证据——听起来可能像是在开玩笑。「hand-wavy」这个短语是她最喜欢的,如果她提到「意义」或「推理」,它通常会带有引号。

作为一名在布朗大学和 Google DeepMind 研究语言模型的计算机科学家,她知道接受自然语言固有的模糊性是认真对待自然语言的唯一方法。「这是一门科学学科——而且有点脆弱。」她说。

从青春期开始,精确性和细微差别就一直存在于 Pavlick 的世界里,当时她喜欢数学和科学。作为一名本科生,她获得了经济学和萨克斯演奏学位,然后攻读计算机科学博士学位,但她仍然觉得自己在这个领域是个局外人。

「很多人[认为]智能系统看起来很像计算机代码:整洁且方便,就像[我们]擅长理解的许多系统一样。」她说,「我只是相信答案很复杂。如果我有一个简单的解决方案,我很确定它是错误的。我不想犯错。」

一次偶然的机会,Pavlick 遇到了一位从事自然语言处理工作的计算机科学家,于是她开始了她的博士研究课题,研究计算机如何编码语义或语言中的意义。「我认为这很有趣。」她说,「它涉及哲学,这与我目前正在做的很多事情相符。」

现在,Pavlick 的主要研究领域之一集中在「基础」——单词的含义是否取决于独立于语言本身而存在的事物的问题,例如感官知觉、社交互动,甚至思想。

语言模型完全基于文本进行训练,因此它们为探索基础对意义的重要性提供了一个富有成效的平台。但这个问题本身几十年来一直困扰着语言学家和思想家们。

「这些不仅仅是『技术』问题。」Pavlick说,「语言是如此之大,对我来说,感觉它涵盖了一切。」

在这里,媒体与 Pavlick 讨论了这些问题。

Q:从经验上来说,「理解」或「意义」意味着什么?具体来说,你在寻找什么?

A:当我在布朗大学开始我的研究项目时,我们认为意义在某种程度上涉及概念。我意识到这是一个理论上的承诺,并不是每个人都会做出这样的承诺,但它看起来很直观。

如果你用「apple」这个词来表示苹果,你就需要一个苹果的概念。无论你是否使用这个词来指代它,它都必须是一件事。这就是「有意义」的含义:需要有一个概念,即你正在用语言表达的东西。

我想在模型中找到概念。我想要一些我可以在神经网络中获取的东西,证明有一个东西在内部代表「苹果」,这使得它可以被同一个词一致地引用。因为似乎确实存在这种内部结构,它不是随机的、任意的。你可以找到这些定义明确的函数的小块,可以可靠地执行某些操作。

我一直专注于描述这种内部结构。它有什么形式?它可以是神经网络权重的某个子集,或者是对这些权重的某种线性代数运算,某种几何抽象。但它必须在[模型的行为中]发挥因果作用:它与这些输入相关,但与那些输出无关,与这些输出相关,但与那些输出无关。

这感觉就像你可以开始称之为「意义」的东西。这是关于弄清楚如何找到这种结构并建立关系,以便一旦我们将其全部到位,我们就可以将其应用于诸如「它知道『苹果』意味着什么吗?」之类的问题。

Q:你找到过这种结构的例子吗?

A是的,有一个研究结果涉及语言模型何时检索一条信息。

图片

论文链接:https://arxiv.org/abs/2305.16130

如果你询问模型「法国的首都是什么」,它需要说「巴黎」,而「波兰的首都是什么」应该回复「华沙」。它很容易记住所有这些答案,并且它们可以分散在[模型内]各处 - 没有真正的理由让它在这些事物之间建立联系。

相反,我们在模型中发现了一个有趣的小地方,它基本上将连接简化为一个小向量。如果将其添加到「法国的首都是什么」,它将检索「巴黎」;如果你问「波兰的首都是什么」,同一个向量将检索「华沙」。就像这个系统的「检索首都城市」向量。

这是一个非常令人兴奋的发现,因为[该模型]似乎是在总结这些小概念,然后对它们应用通用算法。尽管我们正在研究这些非常 [简单] 的问题,但它是为了寻找模型正在使用的这些原始成分的证据。

在这种情况下,摆脱记忆会更容易——在很多方面,这就是这些网络的设计目的。相反,它将[信息]分解为碎片和相关的「原因」。我们希望,当我们提出更好的实验设计时,我们可能会为更复杂的概念找到类似的东西。

Q:「基础」与这些表述有何关系?

A:人类学习语言的方式基于大量的非语言输入:你的身体感觉、你的情绪、你是否饿了等等。这被认为对于意义来说非常重要。

但还有其他一些与内部表征更多相关的基础概念。有些词与物质世界没有明显的联系,但它们仍然有意义。像「民主」这样的词就是一个最喜欢的例子。这是你脑子里的一件事:我可以在不谈论民主的情况下思考它。所以基础可能是从语言到那个东西,那个内部表征。

Q:但你认为,即使是更外在的事物,比如颜色,也可能仍然锚定于内部「概念」表征,而不依赖于感知。那会如何运作呢?

A:嗯,语言模型没有眼睛,对吧?它对颜色一无所知。所以也许[它捕获]了一些更普遍的东西,比如理解它们之间的关系。我知道当我将蓝色和红色混合起来时,我会得到紫色;这些类型的关系可以定义这种内部[基础]结构。

我们可以使用 RGB 代码 [代表颜色的数字字符串] 向 LLM 提供颜色示例。如果你说「好的,这里是红色」,并给出红色的 RGB 代码,「这是蓝色」,给出蓝色的 RGB 代码,然后说「告诉我紫色是什么」,它应该生成紫色的 RGB 代码。这种映射应该很好地表明模型的内部结构是健全的——它缺少[颜色]的感知,但概念结构就在那里。

棘手的是,[模型]只能记住 RGB 代码,这些代码遍布其训练数据。因此,我们「倒转」了所有颜色[远离其真实的 RGB 值]:我们会告诉 LLM,「黄色」一词与代表绿色的 RGB 代码相关联,依此类推。该模型表现良好:当你要求绿色时,它会给你 RGB 代码的倒转版本。这表明其内部颜色表示存在某种一致性。它是应用他们之间关系的知识,而不仅仅是记忆。

这就是「基础」的全部要点。将名称映射到颜色是任意的。更多的是关于他们之间的关系。所以这很令人兴奋。

Q:这些听起来很哲学的问题怎么可能是科学的呢?

A:我最近看到了一个思想实验:如果海洋冲到沙子上并且[当它]退潮时,留下的图案会生成一首诗,会怎么样?这首诗有意义吗?这看起来非常抽象,你可以进行很长的哲学辩论。

语言模型的好处是我们不需要思想实验。这不像是「从理论上讲,这样那样的东西会有智能吗?」 只是:这东西有智能吗?它变得科学和可实践。

有时人们会不屑一顾;有一种「随机鹦鹉学舌」方法。我认为这是因为有人担心人们会过度关注这些东西——我们确实看到了这一点。为了纠正这一点,人们会说:「不,这都是骗局。这都是雾里看花。」

这有点帮倒忙。我们发现了一些非常令人兴奋和新颖的东西,值得深入理解它。这是一个巨大的机会,不应该因为我们担心过度解释模型而被忽视。

Q:当然,你也做出了研究来澄清这种过度解释。

图片

论文链接:https://www.semanticscholar.org/paper/Right-for-the-Wrong-Reasons:-Diagnosing-Syntactic-McCoy-Pavlick/42ed4a9994e6121a9f325f5b901c5b3d7ce104f5

A:在这项工作中,人们发现了模型所利用的所有「浅层启发法」(以模仿理解)——这些对于我作为一名科学家的成长来说是非常基础的。

但这很复杂。就像,不要太早宣称胜利。[我内心]对评估是否正确有一点怀疑或偏执,即使是我知道我设计得非常仔细的评估!这就是其中的一方面:不要过度宣称。

另一方面是,如果你处理这些[语言模型]系统,你就会知道它们不是人类水平的——它们解决问题的方式并不像看起来那么智能。

Q:当这个领域有如此多的基本方法和术语存在争议时,你如何衡量成功呢?

A:我认为,作为科学家,我们正在寻找的是对我们所关心的事物(在本例中为智力)的精确、人类可以理解的描述。然后我们附上文字来帮助我们到达那里。我们需要某种工作词汇。

但这很难,因为这样你就可能陷入这场语义之战。当人们问「它有意义吗:是或否?」 我不知道。我们把对话引向了错误的方向。

我试图提供的是对我们关心解释的行为的精确描述。在这一点上,无论你想称之为「意义」还是「表征」,或者任何这些负载词,都没有什么意义。关键是,有一个理论或提议的模型摆在桌面上——让我们对其进行评估。

Q:那么,语言模型的研究如何才能转向更直接的方法呢?

A:我真正希望能够回答的深层问题——智力的组成部分是什么?人类的智慧是什么样的?模型智能是什么样的?——真的很重要。但我认为未来 10 年会发生的事情并不是很迷人。

如果我们想要处理这些[内部]表征,我们需要找到它们的方法——科学上合理的方法。如果以正确的方式完成,这种低级的、超级杂乱的方法论的东西就不会成为头条新闻。但这是真正重要的东西,可以让我们正确回答这些深刻的问题。

与此同时,模型将不断变化。因此,人们会继续发布很多东西,好像这是「突破」,但事实可能并非如此。在我看来,现在取得重大突破还为时过早。

人们正在研究这些非常简单的任务,比如询问[一个需要完成的语言模型]「约翰给_______喝了一杯酒」,并试图看看它是说「约翰」还是「玛丽」。这没有解释智力的结果的感觉。

但我确实相信,我们用来描述这个无聊问题的工具对于回答有关智力的深层问题至关重要。

相关报道:https://www.quantamagazine.org/does-ai-know-what-an-apple-is-she-aims-to-find-out-20240425/

理论AI语言大模型DeepMind
相关数据
DeepMind机构

DeepMind是一家英国的人工智能公司。公司创建于2010年,最初名称是DeepMind科技(DeepMind Technologies Limited),在2014年被谷歌收购。在2010年由杰米斯·哈萨比斯,谢恩·列格和穆斯塔法·苏莱曼成立创业公司。继AlphaGo之后,Google DeepMind首席执行官杰米斯·哈萨比斯表示将研究用人工智能与人类玩其他游戏,例如即时战略游戏《星际争霸II》(StarCraft II)。深度AI如果能直接使用在其他各种不同领域,除了未来能玩不同的游戏外,例如自动驾驶、投资顾问、音乐评论、甚至司法判决等等目前需要人脑才能处理的工作,基本上也可以直接使用相同的神经网上去学而习得与人类相同的思考力。

https://deepmind.com/
权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

线性代数技术

线性代数是数学的一个分支,它的研究对象是向量,向量空间(或称线性空间),线性变换和有限维的线性方程组。向量空间是现代数学的一个重要课题;因而,线性代数被广泛地应用于抽象代数和泛函分析中;通过解析几何,线性代数得以被具体表示。线性代数的理论已被泛化为算子理论。由于科学研究中的非线性模型通常可以被近似为线性模型,使得线性代数被广泛地应用于自然科学和社会科学中。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

语言学技术

每种人类语言都是知识和能力的复合体,语言的使用者能够相互交流,表达想法,假设,情感,欲望以及所有其他需要表达的事物。语言学是对这些知识体系各方面的研究:如何构建这样的知识体系,如何获取,如何在消息的制作和理解中使用它,它是如何随时间变化的?语言学家因此关注语言本质的一些特殊问题。比如: 所有人类语言都有哪些共同属性?语言如何不同,系统的差异程度如何,我们能否在差异中找到模式?孩子如何在短时间内获得如此完整的语言知识?语言随时间变化的方式有哪些,语言变化的局限性是什么?当我们产生和理解语言时,认知过程的本质是什么?语言学研究的就是这些最本质的问题。

推荐文章
暂无评论
暂无评论~