Anusua Trivedi、Wee Hyong Tok作者卢苗苗校对付宇帅翻译

带你用深度学习虚拟机进行文本迁移学习(附代码)

转自:数据派THU ID:DatapiTHU  

本文5302字,建议阅读10分钟。

本文讲述了现代机器学习的模型,主要由微软数据科学家Anusua Trivedi和数据科学家经理Wee Hyong Tok共同撰写。

动机

现代机器学习模型,尤其是深度神经网络,通常可以从迁移学习中显著受益。在计算机视觉中,在大型图像分类数据集(如ImageNet)上训练的深卷积神经网络已被证明对初始化其他视觉任务(如物体检测)模型非常有用(Zeiler和Fergus,2014)。

但是,我们如何文本上应用迁移学习技术?在这篇博客文章中,我们试图在研究社区中对现有的文本传输学习文献进行综合研究。我们探索八种流行的机器阅读理解(MRC)算法(图1)。我们评估和比较了六篇这样的论文:

BIDAF,DOCQA,ReasoNet,R-NET,SynNet和OpenNMT

我们将模型初始化,对不同的源问题答疑(QA)数据集进行预先训练,并展示标准迁移学习如何在大型目标语料库上实现结果。为了创建一个测试语料库,我们选择了由Harry Shum和Brad Smith编写的Future Computed一书。

我们比较了使用这些预训练的MRC模型为本书创建QA系统的迁移学习方法的性能。对于我们的评估方案,Document-QA模型的性能优于其他迁移学习方法(如BIDAF,ReasoNet和R-NET模型)的性能。您可以在这里使用Jupyter笔记本测试Document-QA模型场景。

我们使用一些预训练的MRC模型比较了用于为本书创建QA语料库的微调学习方法的性能。根据我们的评估方案,OpenNMT模型的性能优于SynNet模型的性能。您可以在这里使用Jupyter笔记本测试OpenNMT模型场景。

介绍

自然语言处理(NLP)中,域适应一直是语法解析(McClosky等,2010)和命名实体识别(Chiticariu等,2010)等重要课题。随着词向量的普及,像word2vec(Mikolov et al。,2013)和GloVe模型(Pennington等,2014)这样的预先训练的词嵌入模型也被广泛用于自然语言任务。

自然语言处理中,问题回答中是一个长期存在的挑战,该社区在过去几年中为这项任务引入了几个范例和数据集。这些范例在问题和答案的类型以及培训数据的大小方面各不相同,有几百到几百万不等的例子。

在这篇文章中,我们特别感兴趣的是上下文感知QA范例,其中每个问题的答案可以通过参考其伴随的上下文(即段落或句子列表)来获得。对于人类来说,阅读理解是一项基本任务,每天都要进行。早在小学,我们就可以阅读一篇文章,并回答关于其主要思想和细节的问题。但对于AI来说,完成阅读理解仍然是一个难以捉摸的目标。因此,构建能够执行机器阅读理解的机器是非常有意义的。

机器阅读理解(MRC)

MRC是关于回答有关给定情境段落的查询。 MRC需要对上下文和查询之间的复杂交互进行建模。最近,注意力机制已成功扩展到MRC。通常,这些方法使用注意力集中在上下文的一小部分上,并用固定大小的矢量对其进行总结,暂时关注时间和/或经常形成单向注意力。这些都已表明,这些MRC模型对于新领域的文本转移学习和微调来说表现良好

为什么MRC对企业来说非常重要?

企业内部对聊天机器的使用情况持续增长。研究和行业已经转向会话式AI方法来推进这种聊天机器人场景,特别是在银行,保险和电信等复杂使用案例中。对话式人工智能的一个主要挑战是需要使用人类的方式理解人类所表达的复杂句子。人的交谈从来不是直截了当的 - 它充满了由多字符串单词,缩写,片段,发音错误和其他一系列问题。

MRC是解决我们今天面临的对话式AI问题的必备因素。如今,MRC方法能够精确地回答诸如“什么原因导致下雨?”等客观问题。这些方法可以被运用于真实世界,如客户服务。 MRC可以被用于导航和理解种“给予与获取”这样的交互。 MRC在商业领域的一些常见应用包括:

  • 翻译。

  • 不同领域间的自动问答。

  • 自动回复电子邮件。

  • 从对话中提取嵌入式信息,用于有针对性的广告/促销活动。

  • 个性化的客户服务。

  • 根据对话域创建机器人的个性和知识。

这种智能会话界面是企业与各地的设备,服务,客户,供应商和员工互动的最简单方式。使用MRC方法构建的智能助理可以每天训练并继续学习。业务影响可以包括通过增加自助服务,提高最终用户体验/满意度,更快地提供相关信息以及提高对内部程序的遵从性来降低成本。

在这篇博文中,我们想要评估不同的MRC方法来解决不同领域的自动问答功能。

MRC迁移学习

最近,一些研究人员已经探索出了各种攻克MRC迁移学习问题的方法。他们的工作对于开发一些可扩展解决方案以将MRC扩展到更广泛领域来讲,至关重要。

目前,大多数最先进的机器阅读系统都建立在监督培训数据的基础上,通过数据实例进行端对端培训,不仅包含文章,还包含人工标记的关于文章和相应答案的问题。通过这些例子,基于深度学习的MRC模型学习理解问题并从文章中推断出答案,其中涉及推理和推理的多个步骤。对于MRC转移学习,我们有6个模型,如图1所示。

MRC微调

尽管使用MRC迁移学习有了很大的进展,但直到最近,人们才开始重视一个被忽视很久的关键问题- 如何为非常小的领域构建MRC系统?

目前,大多数最先进的机器阅读系统都建立在监督式培训数据的基础上,经过数据示例的端对端培训,不仅包含文章,还包含有关文章和相应答案的人工标记问题。通过这些例子,基于深度学习的MRC模型学习理解问题并从文章中推断出答案,其中涉及推理和推理的多个步骤。这种MRC迁移学习对于通用文章非常有效。但是,对于许多利基领域或垂直领域而言,这种监督训练数据不存在。

例如,如果我们需要建立一个新的机器阅读系统来帮助医生找到有关新疾病的有价值信息,那么可能有许多文件可用,但是缺少关于这些文章及其相应答案的手动标记问题。由于需要为每种疾病建立单独的MRC系统以及迅速增加的文献量,这一挑战被放大了。因此,找出如何将MRC系统转移到小众领域很重要,在这个领域中没有手动标记的问题和答案,但有可用的文件体。

在此之前,已经有人研究过生成合成数据以增加不充分的训练数据这样的问题。为了翻译的目标任务,Sennrich 等人在2016提出用给定的真句生成合成翻译以改进现有的机器翻译系统。然而,与机器翻译不同的是,对于像MRC这样的任务,我们需要综合考虑文章的问题和答案。而且,虽然问题是句法流式的自然语言句子,但答案主要是段落中的显著语义概念,如命名实体,动作或数字。由于答案与问题的语言结构不同,因此将答案和问题视为两种不同类型的数据可能更合适。 Golub等人2017年提出了一种称为SynNet的新型模型以解决这一关键需求。

Xinya Du等人在2017年使用了开源神经机器翻译工具包OpenNMT这样的微调方法。 

图1

训练MRC模型

我们使用深度学习虚拟机(DLVM)作为具有NVIDIA Tesla K80 GPU,CUDA和cuDNN库的计算环境。 DLVM是数据科学虚拟机(DSVM)的一种特别配置的变体,可以更直接地使用基于GPU的虚拟机实例来训练深度学习模型。它支持Windows 2016和Ubuntu Data Science虚拟机上。它与DSVM共享相同的核心虚拟机映像(以及所有丰富的工具集),但在配置上更适用于深度学习。所有实验均在具有2个GPU的Linux DLVM上运行。我们使用TensorFlow和Keras以及Tensorflow后端来构建模型。我们在DLVM环境中安装了所有依存项。

先决条件

对于每个模型,请按照GitHub中的Instructions.md来下载代码并安装依存关系。

实验步骤

在DLVM中设置代码后:

  • 运行代码来训练模型。

  • 产生训练有素的模型。

  • 然后运行评分代码来测试训练模型的准确性。

有关所有代码和相关详细信息,请参阅我们的GitHub链接。

使用Python Flask API在DLVM上运行训练的MRC模型

操作化是将模型和代码发布为Web服务以及消费这些服务以产生业务结果的过程。 AI模型可以使用Python Flask API部署到本地DLVM。 要使用DLVM操作AI模型,我们可以在DLVM中使用JupyterHub。 您可以按照每个型号的笔记本中列出的类似步骤进行操作。 DLVM模型部署体系结构图如图2所示。

图2

评估方法

为了比较研究,我们想要在不同的数据集上训练不同的MRC模型,并在单个大型语料库上测试它们。为了达到本博文的目的,我们使用六种MRC模型方法 - BIDAF,DOCQA,ReasoNet,R-NET,SynNet和OpenNMT - 使用训练好的MRC模型为大语料库创建QA-Bot,然后比较结果。

如前所述,为了创建我们的测试语料库,我们使用Harry Shum和Brad Smith撰写的Future Computed一书。我们将本书的PDF转换为Word格式,并删除了所有图像和图表,因此我们的测试语料库仅包含文本。

BIDAF,DOCQA,R-NET,SynNet和OpenNMT都有开放的GitHub资源可用来复制纸质结果。我们使用这些开放的GitHub链接来训练模型,并在必要时扩展这些代码以进行比较研究。对于ReasoNet论文,我们与作者取得联系并访问了他们的私人代码以进行评估工作。请参考下面的详细说明,对我们的测试语料库上的每个MRC模型进行评估。

  • 第1部分 - 评估双向注意力流动(BIDAF)模型

  • 第2部分 - 评估文档 - 质量保证模型

  • 第3部分 - 评估ReasoNet模型

  • 第4部分 - 评估R-NET模型

  • 第5部分 - 评估SynNet模型

  • 第6部分 - 评估OpenNMT模型

我们的比较工作总结在下面的表1中

表1

评估工作中的收获

在这篇博客文章中,我们调查了SQUAD和TriviaQA数据集中的四种不同MRC方法的性能。我们比较了使用这些预训练的MRC模型为Future Computed一书创建问答系统迁移学习方法的性能。请注意,这里的比较仅限于我们的评估方案。其他文档或场景的结果可能会有所不同。

我们的评估方案显示,OpenNMT微调方法的性能优于针对领域特定数据集的简单迁移学习MRC机制。但是,对于通用的大型文章,Document-QA模型优于BIDAF,ReasoNet和R-NET模型。我们将比较下面更详细的性能。

使用BiDAF模型进行转移学习的优点和缺点

  • 优点

BiDAF模型易于培训和测试(感谢AllenAI通过开放的GitHub链接提供所有代码)。

  • 缺点

BiDAF模型的使用非常有限。它只适用于一小段。给定一个更大的段落或许多小段落,这个模型通常需要很长时间,并且以可能的跨度作为答案返回,这可能根本没有任何意义。

GitHub中的资源贡献:

https://github.com/antriv/Transfer_Learning_Text/tree/master/Transfer_Learning/bi-att-flow

使用Document-QA模型进行转移学习的优点和缺点

  • 优点

Document-QA模型非常易于培训和测试(感谢AllenAI通过开放的GitHub链接提供所有代码)。与我们之前探讨的BiDAF模型相比,Document-QA模型做得更好。给定多个较大的文档,这个模型通常需要很少的时间来产生多个可能的跨度作为答案。

  • 缺点

但是,由于Document-QA没有给出单个答案,因此算法可能会将最可能的答案指定为较低的优先级,这可能根本没有任何意义。我们假设,如果模型只能看到包含答案的段落,那么它可能会对启发式或模式过于自信,这种模型只有在先验知道存在答案时才有效。例如,在下面的表2中(根据论文进行调整),我们观察到,即使问题单词与上下文不匹配,模型也会为与答案类别强烈匹配的跨度分配高信度值。如果有答案,这可能会工作得很好,但在其他情况下可能不会有这么好的效果。

GitHub中的资源贡献:

https://github.com/antriv/Transfer_Learning_Text/tree/master/Transfer_Learning/document-qa

表2

使用ReasoNet模型进行迁移学习的优点和缺点

  • 优点

ReasoNets利用多次轮流有效地利用,然后推理查询文档和答案之间的关系。通过使用强化学习,ReasoNets可以动态确定究竟是在消化中间结果后继续理解过程还是终止阅读。

  • 缺点

很难重现本文的结果。没有开放代码可用于此。 ReasoNet模型的使用非常有限。它只适用于一小段。给定一个更大的段落,这个模型通常需要很长时间,并以可能的跨度作为答案回来,这可能根本没有任何意义。

GitHub中的资源贡献,我们为这项工作增加了一些演示代码,但没有公开的GitHub代码可用于此。

使用R-NET模型进行转移学习的优点和缺点

  • 优点

除了在SQUAD上进行培训外,我们还可以在MS-MARCO上训练此模型。在MS-MARCO中,每个问题都有几个相应的段落,所以我们只需按照数据集中给出的顺序连接一个问题的所有段落。其次,MS-MARCO的答案不一定是这些段落的次要代表。在这方面,我们选择评分最高的跨度,参考答案作为训练中的黄金跨度,并预测最高得分跨度作为预测的答案。 MS-MARCO数据集上的R-NET模型优于其他竞争性基线,如ReasoNet。

  • 缺点

对于数据驱动的方法,标记数据可能成为更好性能的瓶颈。虽然文本很丰富,但找到符合SQUAD风格的问题片段组合并不容易。为了生成更多的数据,R-NET模型作者使用SQuAD数据集训练了一个序列到序列的问题生成模型,并从英文维基百科生成了大量的伪问题通道组合。但分析表明,生成问题的质量需要改进。 R-NET仅适用于一小段。给定一个更大的段落或许多小段落,这个模型通常需要很长时间,并且以可能的跨度作为答案返回,这可能根本没有任何意义。

使用SynNet模型进行Finetuning的优点和缺点

  • 优点

在NewsQA数据集上使用SynNet模型非常简单。它还在NewsQA数据集上生成了很好的问答组合。

  • 缺点

SynNet模型的使用非常有限。很难在自定义段落/文本上运行打开的现有代码。它需要大量的手动数据处理,并且这个打开的GitHub链接的步骤并不清楚。因此,我们无法在我们的测试书语料库上对其进行评估。

使用OpenNMT模型进行微调优的优点和缺点

  • 优点

使用OpenNMT模型,我们能够在没有任何额外训练数据的情况下,获得迄今为止最精确的小众领域结果,以接近完全监督的MRC系统性能。 OpenNMT分两个阶段工作:

  • 答案综合:给出一段文字,生成一个答案。

  • 问题综合:给出一个文本段落和一个答案,产生一个问题。

一旦我们从一个新领域获得生成的问答组合,我们还可以在这些问答组合上训练一个Seq2Seq模型,用以从MRC中生成更多像人类一样的对话式AI方法。

  • 缺点

OpenNMT模型培训代码不可用于开源。它只适用于一小段。给定一个更大的段落或许多小段落,这个模型通常需要很长时间,并且以可能的跨度作为答案返回,这可能根本没有任何意义。

结论

在这篇博文中,我们展示了我们如何使用DLVM来训练和比较不同的MRC模型进行迁移学习。我们评估了四种MRC算法,并通过使用每种模型为语料库创建问答模型来比较它们的性能。在这篇文章中,我们展示了使用迁移学习选择相关数据的重要性。这表明,考虑到任务和特定领域的特征,学习适当的数据选择措施的性能优于现成的指标。 MRC方法给了AI更多的理解力,但是MRC算法仍然不能真正理解内容。例如,它不知道“英国摇滚乐队酷玩乐团”究竟是什么,只知道它是超级碗相关问题的答案。有许多自然语言处理应用程序需要能够将知识迁移到新的任务的模型,并通过人类理解来适应新的领域,我们认为这仅仅是文本迁移学习之旅的开始。

Anusua和Wee Hyong

(您可以通过antrua@microsoft.com向Anusua发送电子邮件,内附与本文相关的问题。)

THU数据派"基于清华,放眼世界",以扎实的理工功底闯荡“数据江湖”。发布全球大数据资讯,定期组织线下活动,分享前沿产业动态。了解清华大数据,敬请关注姐妹号“数据派THU”。

入门深度学习机器学习迁移学习
1
相关数据
注意力机制技术
Attention mechanism

我们可以粗略地把神经注意机制类比成一个可以专注于输入内容的某一子集(或特征)的神经网络. 注意力机制最早是由 DeepMind 为图像分类提出的,这让「神经网络在执行预测任务时可以更多关注输入中的相关部分,更少关注不相关的部分」。当解码器生成一个用于构成目标句子的词时,源句子中仅有少部分是相关的;因此,可以应用一个基于内容的注意力机制来根据源句子动态地生成一个(加权的)语境向量(context vector), 然后网络会根据这个语境向量而不是某个固定长度的向量来预测词。

深度神经网络技术
Deep neural network

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

计算机视觉技术
Computer Vision

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

卷积神经网络技术
Convolutional neural network

卷积神经网路(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网路由一个或多个卷积层和顶端的全连通层(对应经典的神经网路)组成,同时也包括关联权重和池化层(pooling layer)。这一结构使得卷积神经网路能够利用输入数据的二维结构。与其他深度学习结构相比,卷积神经网路在图像和语音识别方面能够给出更好的结果。这一模型也可以使用反向传播算法进行训练。相比较其他深度、前馈神经网路,卷积神经网路需要考量的参数更少,使之成为一种颇具吸引力的深度学习结构。 卷积网络是一种专门用于处理具有已知的、网格状拓扑的数据的神经网络。例如时间序列数据,它可以被认为是以一定时间间隔采样的一维网格,又如图像数据,其可以被认为是二维像素网格。

生成模型技术
Generative Model

在概率统计理论中, 生成模型是指能够随机生成观测数据的模型,尤其是在给定某些隐含参数的条件下。 它给观测值和标注数据序列指定一个联合概率分布。 在机器学习中,生成模型可以用来直接对数据建模(例如根据某个变量的概率密度函数进行数据采样),也可以用来建立变量间的条件概率分布。

GloVe技术
GloVe

Stanford开发的用于词向量表示的一个库/工具

机器学习技术
Machine Learning

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

命名实体识别技术
Named entity recognition

命名实体识别(NER)是信息提取(Information Extraction)的一个子任务,主要涉及如何从文本中提取命名实体并将其分类至事先划定好的类别,如在招聘信息中提取具体招聘公司、岗位和工作地点的信息,并将其分别归纳至公司、岗位和地点的类别下。命名实体识别往往先将整句拆解为词语并对每个词语进行此行标注,根据习得的规则对词语进行判别。这项任务的关键在于对未知实体的识别。基于此,命名实体识别的主要思想在于根据现有实例的特征总结识别和分类规则。这些方法可以被分为有监督(supervised)、半监督(semi-supervised)和无监督(unsupervised)三类。有监督学习包括隐形马科夫模型(HMM)、决策树、最大熵模型(ME)、支持向量机(SVM)和条件随机场(CRF)。这些方法主要是读取注释语料库,记忆实例并进行学习,根据这些例子的特征生成针对某一种实例的识别规则。

自然语言处理技术
Natural language processing

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

机器翻译技术
Machine translation

机器翻译(MT)是利用机器的力量「自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)」。机器翻译方法通常可分成三大类:基于规则的机器翻译(RBMT)、统计机器翻译(SMT)和神经机器翻译(NMT)。

问答系统技术
Question Answering

问答系统是未来自然语言处理的明日之星。问答系统外部的行为上来看,其与目前主流资讯检索技术有两点不同:首先是查询方式为完整而口语化的问句,再来则是其回传的为高精准度网页结果或明确的答案字串。以Ask Jeeves为例,使用者不需要思考该使用什么样的问法才能够得到理想的答案,只需要用口语化的方式直接提问如“请问谁是美国总统?”即可。而系统在了解使用者问句后,会非常清楚地回答“奥巴马是美国总统”。面对这种系统,使用者不需要费心去一一检视搜索引擎回传的网页,对于资讯检索的效率与资讯的普及都有很大帮助。从系统内部来看,问答系统使用了大量有别于传统资讯检索系统自然语言处理技术,如自然语言剖析(Natural Language Parsing)、问题分类(Question Classification)、专名辨识(Named Entity Recognition)等等。少数系统甚至会使用复杂的逻辑推理机制,来区隔出需要推理机制才能够区隔出来的答案。在系统所使用的资料上,除了传统资讯检索会使用到的资料外(如字典),问答系统还会使用本体论等语义资料,或者利用网页来增加资料的丰富性。

查询技术
Query

一般来说,查询是询问的一种形式。它在不同的学科里涵义有所不同。在信息检索领域,查询指的是数据库和信息系统对信息检索的精确要求

感知技术
perception

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

强化学习技术
Reinforcement learning

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

机器人学技术
Robotics

机器人学(Robotics)研究的是「机器人的设计、制造、运作和应用,以及控制它们的计算机系统、传感反馈和信息处理」 [25] 。 机器人可以分成两大类:固定机器人和移动机器人。固定机器人通常被用于工业生产(比如用于装配线)。常见的移动机器人应用有货运机器人、空中机器人和自动载具。机器人需要不同部件和系统的协作才能实现最优的作业。其中在硬件上包含传感器、反应器和控制器;另外还有能够实现感知能力的软件,比如定位、地图测绘和目标识别。之前章节中提及的技术都可以在机器人上得到应用和集成,这也是人工智能领域最早的终极目标之一。

迁移学习技术
Transfer learning

迁移学习是一种机器学习方法,就是把为任务 A 开发的模型作为初始点,重新使用在为任务 B 开发模型的过程中。迁移学习是通过从已学习的相关任务中转移知识来改进学习的新任务,虽然大多数机器学习算法都是为了解决单个任务而设计的,但是促进迁移学习的算法的开发是机器学习社区持续关注的话题。 迁移学习对人类来说很常见,例如,我们可能会发现学习识别苹果可能有助于识别梨,或者学习弹奏电子琴可能有助于学习钢琴。

word2vec技术
word2vec

Word2vec,为一群用来产生词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。网络以词表现,并且需猜测相邻位置的输入词,在word2vec中词袋模型假设下,词的顺序是不重要的。 训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示词对词之间的关系。该向量为神经网络之隐藏层。 Word2vec依赖skip-grams或连续词袋(CBOW)来建立神经词嵌入。Word2vec为托马斯·米科洛夫(Tomas Mikolov)在Google带领的研究团队创造。该算法渐渐被其他人所分析和解释。

词嵌入技术
Word embedding

词嵌入是自然语言处理(NLP)中语言模型与表征学习技术的统称。概念上而言,它是指把一个维数为所有词的数量的高维空间嵌入到一个维数低得多的连续向量空间中,每个单词或词组被映射为实数域上的向量。

深度学习技术
Deep learning

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

张量技术
Tensor

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

推荐文章