Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

年龄两岁,教龄一年半:婴儿AI训练师登上Science

只用 61 个小时的数据:人们终于证明了,利用当代 AI 工具,实现「真正的语言学习」是可行的。

在公开采访中,图灵奖得主 Yann LeCun 多次提到,现在的 AI 模型和人类婴儿相比,学习效率实在是太低了。那么,如果让一个 AI 模型去学习婴儿头戴摄像头拍到的东西,它能学到什么?

最近,Science 杂志上的一篇论文进行了初步尝试。研究发现,即使数据有限,AI 模型也能从 10 到 100 个例子中学到单词 - 视觉所指对象之间的映射,而且能够零样本地泛化到新的视觉数据集,并实现多模态对齐。这说明,利用当今的人工智能工具,从婴儿的视角进行真正的语言学习是可能的。
图片
年龄两岁,教龄 1 年半
Sam 是怎么教 AI 学习的?

这一次,人工智能通过婴儿的视角看世界来学习语言。
图片
神经网络通过人类婴儿的视觉经验,自行学会了识别物体,这为人类学习提供了新的见解。
图片
                                AI 通过 Sam 佩戴的头盔式摄像机所拍摄的音视频学习。

当婴儿听到「球」这个词时,他们是如何将这个词的语义与圆形、有弹性的物体(即正确的视觉所指对象)联系起来的呢?哲学家和认知科学家都认为,婴儿在学习新词时,需要从众多候选意项中挑出正确的那一个。

婴儿非常擅长学习词汇。在 6 到 9 个月大的时候,他们开始将单词与眼前的物体建立起音形义的联系。到 18 到 24 个月大的时候,他们已经能理解约 300 个单词。

那么,孩子们是如何快速学会眼前物体的名称的呢?他们又是如何建立起物体的意义和其视觉之间的联系呢?这些问题都需要进一步的探索和研究。

此前,已有一些相关理论在实验中得到了验证。有学者认为单词学习是由简单的、能串联起各领域的联想学习机制驱动的。但是这些理论通常是在婴儿不同的成长时间段测量的,不能揭示某种促进单词学习因素的相对重要性,也不能从中构建计算模型、为计算机模型能获得像人一样的学习能力提供指导。

如果一个模型能够通过孩子的眼睛和耳朵感知世界,那么它是否像解释人类词汇学习能力的联想学习理论一样,能够仅通过基于物体表征的联想学习,理解并整合物体的形体和语义呢?或者,它是否需要借助其他的认知能力,比如归纳偏置(inductive biases),来启动这种能力呢?

为了得到这些问题的答案,来自纽约大学的研究者们对最简单的词汇学习理论进行了前所未有的测试:他们给一个婴儿戴上了头戴式摄像机,并检查模型是否能够从这部摄像机的视频记录中学习到单词与其视觉所指对象之间的映射关系。

戴上摄像机的是来自澳大利亚的 Sam,从 6 个月大到大约 2 岁,他每周头戴摄像机两小时(约占清醒时间的 1%)。

研究团队根据  Sam 的视频建立了 SAYCam-S 数据集。他们从中选取了 61 个小时的录像,其中包含 60 万张视频帧与 3.75 万段经过转写的录音,记录了大约 25 万个单词实例以及对应的图像。这些图像是 Sam 在玩耍、阅读和进食等活动期间拍摄的。

研究团队根据这些数据来训练神经网络,并得到了儿童视角对比学习模型 CVCL。CVCL 采用了对比学习的技术,以学习哪些图像和文本经常一起出现,哪些不会,从而获得预测某些词汇(如 “球” 和 “碗”)所指代图像的能力。

研究发现,CVCL 可以从一个孩子有限的经验片段中充分学习多模态表示。CVCL 能够将一系列日常词汇与分类任务中相应的视觉所指对象匹配起来,大规模对齐视觉和语言概念,并将此能力泛化到训练中未见过的新例子中。该研究表明,多模态表征学习与领域通用的联想学习机制相结合,能够为计算机学习单词带来突破
图片
具体来说,研究者根据多模态模型研究的最新进展设计了 CVCL。CVCL 整合了表示学习和联想学习,用一个对比目标来协调视觉编码器和语言编码器两个神经网络

如图 1 所示,对比目标以自我监督的方式进行训练(即只使用儿童视角的记录,不使用外部标注),模型将目标在视频帧和语言片段共同出现的情况转化为向量提取出来,将其视为正面例子,同时将不共同出现的转化成向量分离出来,视为隐含的负面例子。

提取到正面例子后,CVCL 将这些时间向量转换为学习和调整多模态表征的学习信号。这种方法既不需要对词义进行限制,也不需要预先列出可能的视觉所指对象,能从婴儿记录的视频中恢复许多基本的单词与其视觉所指对象的组合。

评估 CVCL 获得的词汇
对应视觉所指对象的结果

训练完成后,研究团队评估了 CVCL 以及各种类似的模型学习到的单词 - 视觉所指对象组合的质量。根据一种针对儿童的常见测试,研究团队向模型提示了一个目标类别标签,让模型根据四个候选图像与标签的余弦相似度中选择相应的视觉所指对象。
图片
图 2A 显示了标签 S 的测试结果,总体而言,CVCL 的分类准确率为 61.6%。图 2D 显示了模型在不同标签中的具体结果,在 22 个概念中,CVCL 对 11 个概念的判断与 CLIP 相差不到 5%。但 CLIP 训练所用的数据量(互联网的 4 亿个图像文本对)远超于 CVCL。为了解决分类重叠等潜在问题,研究团队还手动筛选出了子集进行了后续评估。

为了确定 CVCL 捕捉单词含义能力的上限和下限,研究团队还将其与类似模型进行了实验。为了测试模型将语言和视觉信息对应起来的能力,研究团队将原数据集中共同出现目标物体的视频帧和录音打乱,重新训练了一个模型的变体 CVCL-Shuffled。被打乱后的模型表现不佳,这显示了视觉和语言信息共现对模型学习的关键作用

为了测试视觉嵌入的有效性,研究者在训练过程中随机冻结了 CVCL 的视觉编码器。尽管模型掌握了如 「沙子 」和 「汽车 」等少数概念,但如图 2D 处所示,模型的成绩再次大幅下降(M = 38.0%)。

研究者比较了 CVCL 与基于其他数据或 Oracle 训练数据的 AI 模型,其他模型的训练数据超出了儿童词汇的范围。CLIP 的准确率达 66.7%,比 CVCL 高出 5.1%,这得益于 CLIP 更理解少数单词的含义如「厨房」、「玩具」和「篮子」。

通过以上测试,可见当在一定范围内测试时,CVCL 的性能可以与基于互联网规模数据训练的模型相当。

此外,研究者测试了模型是否能独立对单词进行分类,而不是根据某些引导儿童的句子得出了判断。他们在初始化的预训练编码器上对线性分类器进行拟合得到了一个 Linear Probe 模型,新模型准确率达 81.6% ,说明 CVCL 具有独立判断能力。

研究团队量化了在对话中自然出现的单词相对直接标记示例对模型训练的价值。如图 2B 所示,他们使用更少的人工标注数据(使用打过标签数据的 10% 和 1%)训练了两个 Linear Probe 模型,测试结果如下表所示。
图片
减少了人工标注数据的 Linear Probe 模型,分类准确度分别下降到了 77.2% 和 65.9%。使用了 1% 的标注示例的模型性能略好于 CVCL。通过比较,可以保守估计一个人工标注的至少相当于来自自然语言的七个示例。不过,来自自然语言的数据能更加灵活、更准确地表示儿童学习的内容,并且它可以容纳无限数量的视觉概念。

为了研究是否有其他因素影响了单词 - 视觉所指对象组合的可学习性,研究团队还训练了 CVCL 模型的其他变体以作评估。他们改变了模型结构或训练过程的各个方面,但没有一个变体的表现优于 CVCL 本身。

综上所述,研究结果表明,人类最初习得的的单词-视觉所指对象组合可以从 10 到 100 个自然出现的单词-视觉所指对象组合中获得

泛化至全新的视觉实例

为了测试 CVCL 的泛化能力,研究团队在 Konkle Objects 数据集上进行了实验。
图片
从研究婴儿语言学习的实验中获得了灵感,研究团队为 CVCL 提供了 64 个额外的在白色背景上的单个物体图像,其对应的单词都在 CVCL 的词汇表中。这个实验使得研究团队能够检查 CVCL 学习的单词是否能成功泛化到未见过的物体中。

如图 3A 所示,CVCL 具有一定的泛化能力,在 64 个物体中有 16 个得分高于 50%(正确),另外 42 个概念得分高于 25%(偶然),整体准确率为 34.7%。

此外,两个 CVCL 的模型变体都接近偶然准确率(CVCL-Shuffled 和 CVCL-Random Features 模型的准确率分别为 25.6% 和 23.4%),而其最佳表现都接近目前 SOTA 方法(CLIP 和 Linear Probe 模型的准确率分别为 99.4% 和 90.7%)。
图片
这些结果表明了 CVCL 的多模态表征如何允许分布之外的泛化 —— 与该能力其他更大规模的演示一致。为了说明这次评估所需的视觉泛化的程度,图 3B 展示了嵌入在话语中的单词的一些自然训练实例(从孩子的视角),与用于评估的新颖测试图像相匹配(以及它们的分类准确度)。此外,这次评估与经典婴儿词汇学习实验中呈现的刺激类型非常相似,这表明在实验室外获得的表现足以解释婴儿如何将实验室内的视觉刺激泛化到新的视觉刺激。

多模态表征的组织结构

最后,研究者介绍了 CVCL 中学习到的多模态表征结构的三个分析家族。

首先探索的问题是,CVCL 的视觉和语言概念系统在多大程度上是一致的。例如,如果「汽车」的视觉和词嵌入都独立地更类似于「道路」而不是「球」,将表明良好的多模态对齐。

使用 Labeled-S 中的 22 个概念,研究者通过随机抽取 100 个注释帧,提取其图像嵌入并跨帧平均计算每个概念的视觉原型。他们还检索了每个概念相应的词嵌入。接下来,计算这些嵌入之间的所有余弦相似度(包括模态内和模态间)并使用 t - 分布随机邻居嵌入(t-SNE)可视化它们之间的关系,如图 4A 和 B 所示。在图 4A 中,虚线表示每个概念相应的视觉质心和词嵌入之间的距离。
图片
由于这些跨模态距离中的许多都很小,研究者检查了概念之间的模态内相似性(通过余弦)是否与视觉和语言相关,发现了概念对齐的显著程度(相关系数 r = 0.37,p < 0.001)。

这些关系不适用于 CVCL 的两个下界中的任何一个(图 S4)。此外,对齐距离也与分类性能呈强烈负相关(r = -0.65,p = 0.001),一些最不准确的类别表现出各自视觉原型和词嵌入之间的最大距离。图 4B 展示了每个概念的带标签图像嵌入的子集,强调不同的视觉概念在示例的紧密聚类程度方面存在差异。通过将视觉变化视为概念视觉嵌入与其视觉原型之间的平均欧几里得距离,研究者还发现与分类性能的强烈负相关(r = -0.48,p = 0.025),这表明 CVCL 在处理「手」和「玩具」等单词参照映射时的难度与它们的视觉变化有关,与紧密聚类的概念如「汽车」和「婴儿床」相比。

接下来,研究者可视化了在 CVCL 中不同的词嵌入如何与图像嵌入相互作用(图 4C)。检查三个不同的概念,他们观察到模型预测与特定词嵌入最相似的图像(以绿色显示)与每个类别的真实标注图像集(以蓝色显示)非常接近,完整概念集显示在图 S6 中。研究者发现 CVCL 学习将不同视觉相似的项目集合表示为一个概念的不同子簇,尽管每个词只使用一个向量。例如,「楼梯」的词嵌入最强烈地激活两个独立的集群,分别代表室内和室外楼梯,而「拼图」产生另外两个集群,代表字母和动物拼图。以前的概念学习心理理论通常需要明确、内置的机制来捕捉概念内部的子结构,但在 CVCL 中,我们发现多簇表示通过对比学习隐式地出现。

研究者还定性检查了 CVCL 定位指代的能力。对于给定的图像,通过应用 Grad-CAM 获得一个注意力图,通过计算最终卷积层特征图的加权和(使用基于图像文本余弦相似度梯度相对于特征图的空域平均值的权重),突出显示与目标类别最相关的图像区域。研究者可以将此注意力图叠加在图像上,并检查指代的位置与注意力图之间的任何对应关系。

图 5 展示了四个概念中多个注意力图的示例。对于某些类别,CVCL 的注意力图提供了物体定位的证据:注意力图中最高激活的区域紧密跟踪指代的定位。
图片
更多研究细节,可参考原论文。
产业对比学习模型Yann LeCunCVCL
1
相关数据
线性分类器技术

机器学习通过使用对象的特征来识别它所属的类(或组)来进行统计分类。线性分类器通过基于特征的线性组合的值进行分类决策。 对象的特征也称为特征值,通常在称为特征向量的向量中呈现给机器。

概念学习技术

概念学习,也称为类别学习、概念获得和概念形成,定义为“搜索和列出可用于区分各种类别的非样本的样本的属性”。 更简单地说,概念是帮助我们对对象、事件或想法进行分类的心理类别,建立在对每个对象、事件或想法具有一组共同相关特征的理解的基础上。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

词嵌入技术

词嵌入是自然语言处理(NLP)中语言模型与表征学习技术的统称。概念上而言,它是指把一个维数为所有词的数量的高维空间嵌入到一个维数低得多的连续向量空间中,每个单词或词组被映射为实数域上的向量。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

欧几里得距离技术

在数学中,欧几里得距离或欧几里得度量是欧几里得空间中两点间“普通”(即直线)距离。 使用这个距离,欧氏空间成为度量空间。

准确率技术

分类模型的正确预测所占的比例。在多类别分类中,准确率的定义为:正确的预测数/样本总数。 在二元分类中,准确率的定义为:(真正例数+真负例数)/样本总数

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

聚类技术

将物理或抽象对象的集合分成由类似的对象组成的多个类的过程被称为聚类。由聚类所生成的簇是一组数据对象的集合,这些对象与同一个簇中的对象彼此相似,与其他簇中的对象相异。“物以类聚,人以群分”,在自然科学和社会科学中,存在着大量的分类问题。聚类分析又称群分析,它是研究(样品或指标)分类问题的一种统计分析方法。聚类分析起源于分类学,但是聚类不等于分类。聚类与分类的不同在于,聚类所要求划分的类是未知的。聚类分析内容非常丰富,有系统聚类法、有序样品聚类法、动态聚类法、模糊聚类法、图论聚类法、聚类预报法等。

语言学技术

每种人类语言都是知识和能力的复合体,语言的使用者能够相互交流,表达想法,假设,情感,欲望以及所有其他需要表达的事物。语言学是对这些知识体系各方面的研究:如何构建这样的知识体系,如何获取,如何在消息的制作和理解中使用它,它是如何随时间变化的?语言学家因此关注语言本质的一些特殊问题。比如: 所有人类语言都有哪些共同属性?语言如何不同,系统的差异程度如何,我们能否在差异中找到模式?孩子如何在短时间内获得如此完整的语言知识?语言随时间变化的方式有哪些,语言变化的局限性是什么?当我们产生和理解语言时,认知过程的本质是什么?语言学研究的就是这些最本质的问题。

量化技术

深度学习中的量化是指,用低位宽数字的神经网络近似使用了浮点数的神经网络的过程。

推荐文章
暂无评论
暂无评论~