Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

邵洲作者数据挖掘、学者迁徙研究研究兴趣

机器学习博士手把手教你入门LSTM(附代码资料)

LSTM是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。在自然语言处理语言识别等一系列的应用上都取得了很好的效果。

《Long Short Term Memory Networks with Python》是澳大利亚机器学习专家Jason Brownlee的著作,里面详细介绍了LSTM模型的原理和使用。

该书总共分为十四个章节,具体如下:

第一章:什么是LSTMs?

第二章:怎么样训练LSTMs?

第三章:怎么样准备LSTMs的数据?

第四章:怎么样在Keras中开发LSTMs?

第五章:序列预测建模

第六章:怎么样开发一个Vanilla LSTM模型?

第七章:怎么样开发Stacked LSTMs?

第八章:开发CNN LSTM模型

第九章:开发Encoder-Decoder LSTMs

第十章:开发Bidirectional LSTMs

第十一章:开发生成LSTMs

第十二章:诊断和调试LSTMs

第十三章:怎么样用LSTMs做预测?

第十四章:更新LSTMs模型

本文的作者对此书进行了翻译整理之后,分享给大家。我们还将继续推出一系列的文章来介绍里面的详细内容,和大家一起来共同学习,支持答疑支持答疑!支持答疑!重要的事情说三遍!有相关问题大家都可在文章底部给我们留言!一定会回复你的!

本文有12000字左右,阅读需12分钟,建议收藏学习。

1.0 前言

1.0.1 课程目标

本课程的目的是让你对LSTM有一个更高层次的理解,这样你就可以解释它们是什么以及它们是怎么样工作的。

完成这一课之后,你会知道:

  • 序列预测是什么,以及它们和一般的预测建模问题有什么样的区别;

  • 多层感知器Multilayer Perceptrons )在序列预测上的局限性、循环神经网络(Recurrent Neural Networks)在序列预测上的保障以及LSTM是怎么样传递那种保障的;

  • 一些令人影响深刻的LSTMs挑战序列预测问题的应用以及一些LSTMs局限性的警告

1.0.2 课程概览

本课程被划分为6节,它们是:

  1. 序列预测问题;

  2. 多层感知机的局限性;

  3. 循环神经网络的保障;

  4. LSTM网络;

  5. LSTM网络的应用;

  6. LSTM网络的局限性。

让我们开始吧!

1.1 序列预测问题

序列预测和其他类型的监督学习问题来说是不同的。序列强调观察值的顺序,当训练模型和做出预测的时候这个顺序必须被保存。总的来说,设计序列数据的预测问题被称为序列预测问题,尽管基于输入和输出顺序的不同,这种称法还有很多问题。本节,我们将会看四种类型的序列预测问题:

  1. 序列预测(Sequence Prediction);

  2. 序列分类(Sequence Classification);

  3. 序列生成(Sequence Generation);

  4. 序列到序列的的预测(Sequence-to-Sequence Prediction)。

但是,首先,让我们一起确定一个集合和一个序列之间的区别。

1.1.1 序列

在应用机器学习中我们经常用到集合,例如训练集和测试集。集合中的每个样本可以被认为是来自其范围内的观察值。在一个集合中,观察的顺序并不重要。一个序列则不同,序列强调观察值的详细的顺序。这里顺序非常重要!在使用序列数据作为模型的输入和输出时,必须在预测问题的定义中特别地慎重对待!

1.1.2 序列预测

序列预测包括预测给定输入序列的下一个值。例如:

  1. 输入序列:1,2,3,4,5

  2. 输出序列:6

列表 1.1:序列预测问题的例子

  1. graph LR

  2.    A["[1,2,3,4,5]"]-->B["序列预测模型"]

  3.    B["序列预测模型"]-->C["[6]"]

图1.1 序列预测问题的描述

序列预测问题也通常被称为序列学习。从技术上讲,我们可以将所有下面的问题都认为是序列预测问题的其中一种类型。这可能会让初学者感到困惑。

连续数据学习仍然是模式识别机器学习中的一项基本任务和挑战。包含数据顺序的应用可能需要对新事件的预测、新序列的生成或者诸如序列或者子序列分类的决策。

— On Prediction Using Variable Order Markov Models, 2004.

一般来说,本书中,我们将使用“序列预测”来指代具有序列数据预测问题的这一类别。然而,在这部分,我们将会把序列预测和其他形式的具有序列数据的预测进行区分,将其定义为作为预测下一个时间步长的预测。

序列预测尝试去根据前面的元素来预测序列的元素。

— Sequence Learning: From Recognition and Prediction to Sequential Decision Making, 2001.

一些序列预测问题的问题包括:

  • 天气预测。给定一个序列的基于时间的天气的观察值,预测明天的天气。

  • 股票预测。给定一个基于时间的有价证券序列波动值,预测明天有价证券的波动。

  • 产品推荐。给定一个客户曾经的购物情况,预测下一个阶段客户的购物。

1.1.3 序列分类

序列分类包括预测给定输入序列的分类标签。例如:

  1. 输入序列:1,2,3,4,5

  2. 输出序列:“good”

列表 1.2:序列分类问题的例子

  1. graph LR

  2.    A["[1,2,3,4,5]"]-->B["序列预测模型"]

  3.     B["序列预测模型"]-->C["good"]

图1.2 序列分类问题的描述

序列分类问题的目的是利用标记数据集[...]建立一个分类模型,以便该模型可以用来预测一个看不见的序列的分类标签。

— Discrete Sequence Classification, Data Classification: Algorithms and Applications, 2015.

输入序列可以由实际值或者离散值组成。在后一种情况下,这些问题可以被称为离散序列分类问题。序列分类问题的一些例子包括:

  • DNA序列分类。给定DNA序列值A,C,G和T,预测序列是编码区域还是非编码区域。

  • 自动检测。给定一个序列的观察值,预测序列是否是反常的。

  • 情感分析。给定一个文本的序列,例如综述或者是推特,预测这段文本的情感是积极的还是消极的。

1.1.4 序列生成

序列生成包含一个新的输出序列,该序列和语料集里面序列有着相同的特征。例如:

  1. 输入序列:[1,3,5],[7,9,11]

  2. 输出序列:[3,5,7]

列表 1.3:序列生成问题的例子

  1. graph LR

  2.    A["[1,3,5],[7,9,11]"]-->B["序列预测模型"]

  3.    B["序列预测模型"]-->C["[3,5,7]"]

图1.3 序列生成问题的描述

循环神经网络(RNN)可以通过一步一步地处理真实数据序列来预测序列生成,并预测接下来会发生什么。[递归神经网络]可以通过一步一步地处理真实数据序列来预测序列生成,并预测接下来会发生什么。假设预测是概率的,可以通过从网络的输出分布迭代采样来从训练网络生成新序列,然后在下一步骤中将样本喂给输入。换句话说,让网络把他们的发明视为真实的,就像一个人做梦一样。相对新的,seq2seq方法在[结果]实现了state-of-the-art机器翻译

— Generating Sequences With Recurrent Neural Networks, 2013.

序列生成问题的一些例子包括:

  • 文本生成:给定一个语料集的文本,例如莎士比亚的文学作品,生成新的句子或者段落的文本,它们可以从语料集中提取出来。

  • 手写体预测:给定一个手写体的语料库,生成具有在语料库中具有手写属性的新的短语的手写体。

  • 音乐生成:给定音乐实例的语料库,生成具有语料库属性的新音乐片段。 序列模型可以指以单次观测作为输入的序列生成。一个例子是图像的自动文本描述。

  • 图像字幕的生成:给定图像作为输入,生成描述该图像的单词序列。

例如:

  1. 输入序列:[图像像素]

  2. 输出序列:["一个人骑着自行车"]

列表 1.4:序列生成问题的例子

  1. graph LR

  2.    A["图像像素"]-->B["序列预测模型"]

  3.    B["序列预测模型"]-->C["一个人骑着自行车"]

图1.4 序列生成问题的描述

使用适当的句子能够自动描述图像内容是一项非常具有挑战性的任务,但是它可能会产生很大的影响[...]。确实,一个描述不仅必须捕获图像中所包含的对象,而且还必须表示这些对象是如何关联的,以及它们的属性和它们所涉及的活动。

— Show and Tell: A Neural Image Caption Generator, 2015.

1.1.5 序列到序列预测

序列到序列的预测涉及给定一个输入序列并预测一个输出序列,例如:

  1. 输入序列:1,2,3,4,5

  2. 输出序列:6,7,8,9,10

列表 1.5:序列到序列问题的例子

  1. graph LR

  2.    A["图像像素"]-->B["序列预测模型"]

  3.    B["序列预测模型"]-->C["一个人骑着自行车"]

图1.5 序列到序列问题的描述

尽管深度神经网络具有灵活性,能力强大,但是它只能应用于这类问题:即输入和目标可以很明显地被编码为一个固定维度向量。这是一个很明显的限制,因为很多重要问题的输入最好用一个长度未知的序列来表示,并没有一个可知的先验。例如,原因识别和机器翻译是连续的问题。同样地,问答也可以被看做是将代表问题的单词序列映射到表示答案的单词序列。

— Sequence to Sequence Learning with Neural Networks, 2014.

序列到序列预测是序列预测一个很微妙而又很具有挑战性的扩展。不是在在序列中预测单一的下一个值,一个新的序列被预测出来,该序列可能会或者可能不会和输入序列有着相同的长度或者同一时间。这类问题最近在文本自动翻译领域出现了很多的研究(如翻译英语到语法)可以被缩写为seq2seq。seq2seq学习,其核心是,使用循环神经网络来将变长的输入序列映射成为一个可变长度输出序列。

— Multi-task Sequence to Sequence Learning, 2016.

如果输入和输出的序列都是时间序列,那么该问题可以被称为多步时间序列预测。序列到序列问题的一些例子包括:

  • 多步时间序列预测。给定一系列时间观察值,预测一系列未来时间步长的观测序列。

  • 文本摘要。给定文本文档,预测描述源原档的突出部分的较短文本序列。

  • 程序执行。给定文本描述程序或数学方程,预描述正确输出的字符序列。

1.2 感知机的局限性

传统的神经网络叫做感知机(Multilayer Perceptrons),或者简称为MLP,可以被用于序列模型的预测问题。MLP近似从输入变量到输出变量的映射函数。由于一系列的原因,其总的能力对于序列预测问题是很有用的(特别是时间序列预测)。

  • 对噪声很健壮神经网络对输入数据和映射函数中的噪声具有很强的鲁棒性,甚至可以在缺失值的存在下支持学习和预测。

  • 非线性神经网络对映射函数不做强假设,容易学习线性和非线性关系。

另外,在映射函数中,MLP可以被配置为支持任意数量的输入和输出,但有一定数量的输入和输出。这意味着:

  • 多变量输入。可以指定任意数量的输入,为多变量预测提供提供直接的支持。

  • 多步输出。可以指定任意数量的输出,为多步甚至多变量预测提供直接支持。

其能力克服了使用传统线性方法的限制(如用于时间序列预测的ARIMA)。仅凭这些能力,前向神经网络被广泛应用于时间序列预测。

ARIMA模型全称为自回归积分滑动平均模型(Autoregressive Integrated Moving Average Model,简记ARIMA)。ARIMA模型的基本思想是:将预测对象随时间推移而形成的数据序列视为一个随机序列,用一定的数学模型来近似描述这个序列。这个模型一旦被识别后就可以从时间序列的过去值及现在值来预测未来值。

神经网络的一个重要的贡献——即它们优雅地逼近任意非线性函数的能力。这种性质在时间序列处理中具有很高的价值,并保证了更强大的应用,特别是在预测的子领域中...

Neural Networks for Time Series Processing, 1996.

MLP在序列预测上的应用需要输入序列被划分成较小的重叠子序列,这些子序列被显示成给网络用来生成一个预测。输入序列的时间步长成为网络的输入特征。子序列是重叠的,以模拟沿该序列滑动的窗口,以便生成所需的输出。这在一些问题上效果很好,但是它有5个关键的限制:

  • 无状态。MLP学习一个固定函数的近似。在输入序列的上下文中有条件的任何输出必须被泛化和固定到网络权重中。

  • 不知道时间结构。时间步长被建模为输入特征,这意味着网络对观测之间的时间结构或者顺序没有明确的处理或者理解。

  • 尺度混乱。对于需要建模多个并行输入序列的问题,输入特征的数量作为滑动窗口的大小的额一个元素而增加,而没有任何时间序列的显示分离。

  • 固定大小的输入。滑动窗口的大小是固定的,必须强加到所有的输入中。

  • 固定大小的输出。输出的大小也是固定的,任何不符合的输出都必须强制成为固定的大小。

MLP确实为序列预测提供了很大的能力,但是仍然受到整个关键限制的限制,即必须在模型设计中明确地预先说明观测之间的时间依赖的范围。

序列到序列对“深度神经网络”提出了挑战,因为它们要求输入和输出的位数是已知的并且是固定的。

— Sequence to Sequence Learning with Neural Networks, 2014

MLP是建模序列到序列模型问题的好的起点,但是我们现在有更好的选择。

1.3 序列模型的保证

长短时记忆,或者LSTM网络是一种类型的循环神经网络。循环神经网络(简称RNN)是一种特殊类型的用于序列问题的神经网络。给定一个标准的前馈MLP网络,RNN可以被认为是添加到体系结构的环路。例如,在给定的层中,除了正向下一层之外,每个神经元可以逐渐地(侧向)传递其信号。网络的输出可以用下一个输入向量作为输入反馈给网络,等等。

循环连接将状态或存储器添加到网络中,并允许它学习和利用输入序列中观测的有序性。

循环神经网络包含环,这个环将上一个阶段的网络激活作为输入喂给网络,来影响当前阶段的预测。这些激活被存储在网络的内部状态中,其原则上可以保持长期时间上下文信息。这种机制允许RNN在输入序列历史上利用动态变化的上下文窗口。

— Long Short-Term Memory Recurrent Neural Network Architectures for Large Scale Acoustic Modeling, 2014

序列的增加是被逼近的函数的一个新的维度。网络可以学习一个基于时间的从输入到输出的映射函数,而不是单纯将输入映射到输出。内部存储器可以表示输出时基于输入序列的中的最近上下文,而不是刚被呈现为网络的输入。从某种意义上说,这种能力解锁了神经网络的时间序列。

长短时记忆(LSTM)可以解决很多不能被反馈网络使用固定大小时间窗口解决的任务。

— Applying LSTM to Time Series Predictable through Time-Window Approaches, 2001

除了使用神经网络进行序列预测的一般方法外,RNN还可以学习和利用数据的时间依赖性。也就是说,在最简单的情况下,网络显示一个序列中的一个时间的一次观察,并且可以了解先前观察到的观测结果是相关的,以及它们是如何预测相关的。

由于这种学习序列中长期相关性的能力,LSTM网络避免了预先指定时间窗口的需要,并且能够精确地模拟复杂的多变量序列。

— Long Short Term Memory Networks for Anomaly Detection in Time Series, 2015

循环神经网络的保证是输入数据中的时间依赖和上下文信息可以被学习到。

循环神经网络的输入不是固定的,而是构成一个序列,可以用来将输入序列转换成输出序列,同时以可理解的方式考虑上下文信息。

— Learning Long-Term Dependencies with Gradient Descent is Dicult, 1994.

有许多种的RNN,但是是LSTM在序列预测中传递RNN的保证。这就是为什么LSTM现在有这么多的声音和应用的原因。

LSTM具有内部状态,它们明确地知道输入中的时间结构,能够分别对多个并行输入序列进行建模,并且可以通过不同长度的输入序列来产生可变长度的输出序列,每一时间一次观察。

接下来,让我们仔细看看LSTM网络。

1.4 LSTM网络

LSTM网络和传统MLP是不同的。像MLP,网络由神经元层组成。输入数据通过网络传播以进行预测。与RNN一样,LSTM具有递归连接,使得来自先前时间步的神经元的先前激活状态被用作形成输出的上下文。

和其他的RNN不一样,LSTM具有一个独特的公式,使其避免防止出现阻止和缩放其他RNN的问题。这,以及令人影响深刻的结果是可以实现的,这也是这项技术得以普及的原因。

RNNs一直以来所面临的一个关键问题是怎么样有效地训练它们。实验表明,权重更新过程导致权重变化,权重很快变成了如此之小,小到没有效果(梯度消失)或者权重变得如此之大,导致非常大的变化或者溢出(梯度爆炸),这一问题是非常的困难的。LSTM通过设计而克服了这一困难。

不幸的是,标准的RNN可以访问的上下文信息的范围实际上是非常有限的。问题是隐藏层上给定输入,以及因此在网络上的输出,当它围绕网络的经常性连接循环时,要么指数衰减,要么指数上升。这个缺点...在文献中被称为梯度消失问题...长短时记忆(LSTM)是一种设计用于解决梯度消失问题的RNN体系结构。

— A Novel Connectionist System for Unconstrained Handwriting Recognition, 2009

LSTM网络的计算单元被称为存储单元(memory cell),存储器块(memory block)或者简称单元(cell)。当描述MLPs时,术语“神经元”作为计算单元是根深蒂固的,因此它经常被用来指LSTM存储单元。LSTM单元由权重和门组成。

长短时结构是通过对现有RNN中的误差进行分析,发现长时间滞后对现有体系结构是不可访问的,因为反向传播误差要么指数上升要么衰减。LSTM层由一组递归连接的块组成,称为存储块(memory blocks)。这些块可以被认为是数字计算机中存储芯片的可微版本。每一个包含一个或者多个递归连接的存储单元和单个乘法单元——输入门、输出门和遗忘门,它们为单元提供写、读和重置操作的连续模拟。...网络只能通过门与细胞相互作用。

— Framewise Phoneme Classification with Bidirectional LSTM and Other Neural Network Architectures, 2005.

1.4.1 LSTM权重

一个记忆单元具有输入、输出的权重参数,以及通过暴露于输入时间步长而建立的内部状态。

  • 输入权重。用于对当前时间步长的输入进行加权。

  • 输出权重。用于对上次步骤的输出进行加权。

  • 内部状态。在这个时间步长的输出计算中使用内部状态。

1.4.2 LSTM

记忆单元的关键是门。这些也是加权函数,它们进一步控制单元中的信息。有三个门:

  • 遗忘门。决定什么样的信息需要从单元中丢弃。

  • 输入门。决定输入中哪些值来更新记忆状态。

  • 输出门。根据输入和单元的内存决定输出什么。

在内部状态的更新中使用了遗忘门和输入门。输入门是单元实际输出什么的最后限制。正是这些门和一致的数据流被称为CEC(constant error carrousel),它保持每个单元稳定(既不爆炸或者消失)。

每个存储单元的内部结构保证CEC(its constant error carrousel)。这表示桥接的基础滞后很长的时间。两个门单元学习在每个存储单元CEC中的打开和关闭对错误的访问。乘法输入门提供保护的CEC从扰动无关的输入。同样地,乘法输出门保护其他单元不受当前不相关存储器内容的干扰。

— Long Short-Term Memory, 1997.

不像传统的MLP神经元,很难画出一个干净的LSTM存储单元。到处都有线、权重和门。看看本章末尾的一些资源,如果你认为基于图片或者基于等式的LSTM内部描述将有助于进一步研究。我们可以将LSTM的3个关键术语归纳为:

  • 克服了训练RNN的技术问题,即梯度消失和梯度爆炸问题。

  • 拥有记忆来克服与输入序列相关的长期时间依赖问题。

  • 一个个时间步长地处理输入序列和输出序列,允许可变长度的输入和输出。

接下来,让我们看看一些例子,其中LSTMs解决了一些具有挑战性的问题。

1.5 LSTMs的应用

我们感兴趣的是LSTMs为解决序列预测问题提供的高雅的解决方案。本节提供3个示例,为您提供LSTM能够实现的结果快照。

1.5.1 自动图片标题生成

自动图片标题的任务是在给定图像的情况下,系统必须生成一个标题,描述图像的内容。在2014年,有深度学习算法实现实现了突破性的进展,利用顶部模型在图片中进行物体分类和对象检测,在这个问题上取得了非常令人印象深刻的结果。

一旦你可以在照片中检测出对象并未这些对象生成标签,你就可以看到下一步就是将这些标签转换成连贯的句子描述。该系统涉及使用非常大的卷积神经网络在照片中检测物体,然后LSTM将标签转换成连贯的句子。

 图1.6 LSTM生成标题的示例,取自《显示并告知:一个神经网络标题生成器》,2014

1.5.2 文本自动翻译

自动文本翻译的认为是在一个语言中给出文本的句子,并且必须把它们翻译成为另外一种语言的文本。例如,英语句子作为输入,语法句子作为输出。该模型必须学习单词的翻译,翻译的上下文被修改,并支持输入和输出序列的长度可能总体上相互变化。

 图1.7 将英文文本翻译成法语的例子,从预测到预期的翻译,出自神经网络序列到序列的学习,2014

1.5.3 自动手写体生成

这个任务中,在给定手写体语料库的情况下,生成给定单词或者短语的新的手写体。当手写样本被创建时,手写被提供为笔所使用的坐标序列。在这个语料库中,学习了笔运动与字母之间的关系,并产生了新的例子。有趣的是,不同的风格可以学习,然后模仿。我希望看到这项工作结合一些法医笔记分析的专业知识。  图1.8 LSTM生成字幕的例子,摘自《循环神经网络的生成序列》,2014

1.6 LSTMs的限制

LSTMs给人留下了深刻的印象。网络的设计克服了RNNs的技术挑战,用神经网络实现了对序列预测的保证。LSTM的应用在一系列的复杂问题上取得了令人印象深刻的结果。但是LSTMs对于所有的序列预测问题可能不是理想的。

例如,在时间序列预测中,通常用于预测信息在过去观察的一个小窗口内。通常,具有窗口或线性模型的MLP可能是一个不太复杂和更合适的模型。

文献中发现的时间序列基准问题...通常概念上比LSTM已经解决的许多任务更简单。它们通常不需要RNNs,因为有关下一个事件的所有相关信息都是由一些在小时间窗口中包含的最近事件传达的。

— Applying LSTM to Time Series Predictable through Time-Window Approaches, 2001

LSTM的一个重要的局限是记忆。或者更准确地说,记忆是如何被滥用的。有可能迫使LSTM模型在很长的输入时间步长上记住单个观察。这是LSTM的不良使用,并且需要LSTM模型记住多个观察将失败。当将LSTM应用于时间序列预测时,可以看出,该问题表述为回归,要求删除是输入序列中的多个遥远时间步长的函数。一个LSTM可能被迫在这个问题上执行,但是通常比一个精心设计的自回归模型或重新考虑问题一般少一些。

假设任何动态模型都需要t-tau,...,我们注意到[autoregression]-RNN必须将t-tau的所有输入存储到t,并在适当的时间覆盖它们。这需要实现一个循环的缓存,这是一个对RNN进行模拟很困难的结构。

— Applying LSTM to Time Series Predictable through Time-Window Approaches, 2001

警告,LSTM并不是一种令人期待的新技术,而且需要仔细的考虑你问题的框架。把LSTMs的内部状态看做是一个方便的内部变量来捕捉和提供预测的背景。如果你的问题看起来像一个传统的自回归问题,在一个小窗口内具有最相关的滞后观察,那么在考虑LSTM之前,也许使用MLP和滑动窗口开发性能的基线。

基于时间窗口的MLP在某些时间序列预测基准上优于LSTM的pure-[autoregression]方法,仅通过查看最近的一些输入来解决。因此,LSTM的特殊长处,即学会记住很长的、位置的时间段的单个事件,是不必要的。

— Applying LSTM to Time Series Predictable through Time-Window Approaches, 2001

1.7 扩展阅读

如果你想深入研究算法的技术细节,下面是一些关于LSTM的文章。

1.7.1 序列预测问题

  • Sequence on Wikipedia。

  • On Prediction Using Variable Order Markov Models, 2004.

  • Sequence Learning: From Recognition and Prediction to Sequential Decision Making, 2001.

  • Chapter 14, Discrete Sequence Classification, Data Classification: Algorithms and Applications, 2015.。

  • Generating Sequences With Recurrent Neural Networks, 2013.

  • Show and Tell: A Neural Image Caption Generator, 2015.

  • Multi-task Sequence to Sequence Learning, 2016.

  • Sequence to Sequence Learning with Neural Networks, 2014.

  • Recursive and direct multi-step forecasting: the best of both worlds, 2012.

1.7.2 MLPs用于序列预测

  • Neural Networks for Time Series Processing, 1996.

  • Sequence to Sequence Learning with Neural Networks, 2014.

1.7.3 RNNs的保障

  • Long Short-Term Memory Recurrent Neural Network Architectures for Large Scale Acoustic Modeling, 2014.

  • Applying LSTM to Time Series Predictable through Time-Window Approaches, 2001.

  • Long Short Term Memory Networks for Anomaly Detection in Time Series, 2015.

  • Learning Long-Term Dependencies with Gradient Descent is Dicult, 1994.

  • On the diculty of training Recurrent Neural Networks, 2013.

1.7.4 LSTMs

  • Long Short-Term Memory, 1997. Learning to forget: Continual prediction with LSTM, 2000.

  • A Novel Connectionist System for Unconstrained Handwriting Recognition, 2009.

  • Framewise Phoneme Classification with Bidirectional LSTM and Other Neural Network Architectures, 2005.

1.7.5 LSTM应用

  • Show and Tell: A Neural Image Caption Generator, 2014.

  • Sequence to Sequence Learning with Neural Networks, 2014.

  • Generating Sequences With Recurrent Neural Networks, 2014.

1.8 拓展

1.9 总结

在本课中,您发现了用于序列预测的长短时记忆循环神经网络。你知道吗?

  • 序列预测是什么?它们是如何不同于一般预测建模问题的。

  • 多层感知机用于序列预测的局限性,循环神经网络用于序列预测的保障,以及LSTM是如何实现该承诺的。

  • 令人深刻的应用LSTM挑战序列预测问题,以及LSTM局限性的一些警告。 接下来,您将发现如何使用反向传播通过时间训练算法来训练LSTM

AMiner学术头条
AMiner学术头条

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。系统2006年上线,吸引了全球220个国家/地区800多万独立IP访问,数据下载量230万次,年度访问量1000万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。

https://www.aminer.cn/
专栏二维码
入门LSTM机器学习序列文本生成RNNSeq2Seq模型NLP深度学习语言识别模式识别
251
相关数据
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

多层感知机技术

感知机(Perceptron)一般只有一个输入层与一个输出层,导致了学习能力有限而只能解决线性可分问题。多层感知机(Multilayer Perceptron)是一类前馈(人工)神经网络及感知机的延伸,它至少由三层功能神经元(functional neuron)组成(输入层,隐层,输出层),每层神经元与下一层神经元全互连,神经元之间不存在同层连接或跨层连接,其中隐层或隐含层(hidden layer)介于输入层与输出层之间的,主要通过非线性的函数复合对信号进行逐步加工,特征提取以及表示学习。多层感知机的强大学习能力在于,虽然训练数据没有指明每层的功能,但网络的层数、每层的神经元的个数、神经元的激活函数均为可调且由模型选择预先决定,学习算法只需通过模型训练决定网络参数(连接权重与阈值),即可最好地实现对于目标函数的近似,故也被称为函数的泛逼近器(universal function approximator)。

基准技术

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

模式识别技术

模式识别(英语:Pattern recognition),就是通过计算机用数学技术方法来研究模式的自动处理和判读。 我们把环境与客体统称为“模式”。 随着计算机技术的发展,人类有可能研究复杂的信息处理过程。 信息处理过程的一个重要形式是生命体对环境及客体的识别。其概念与数据挖掘、机器学习类似。

机器翻译技术

机器翻译(MT)是利用机器的力量「自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)」。机器翻译方法通常可分成三大类:基于规则的机器翻译(RBMT)、统计机器翻译(SMT)和神经机器翻译(NMT)。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

监督学习技术

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

语料库技术

语料库一词在语言学上意指大量的文本,通常经过整理,具有既定格式与标记;事实上,语料库英文 "text corpus" 的涵意即为"body of text"。

分类问题技术

分类问题是数据挖掘处理的一个重要组成部分,在机器学习领域,分类问题通常被认为属于监督式学习(supervised learning),也就是说,分类问题的目标是根据已知样本的某些特征,判断一个新的样本属于哪种已知的样本类。根据类别的数量还可以进一步将分类问题划分为二元分类(binary classification)和多元分类(multiclass classification)。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

语言识别技术

在自然语言处理中,语言识别或语言猜测是确定给定内容所使用的自然语言的问题。针对该问题的计算方法被视为文本分类的特例,并用各种统计方法解决。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

序列到序列技术

长短期记忆网络技术

长短期记忆(Long Short-Term Memory) 是具有长期记忆能力的一种时间递归神经网络(Recurrent Neural Network)。 其网络结构含有一个或多个具有可遗忘和记忆功能的单元组成。它在1997年被提出用于解决传统RNN(Recurrent Neural Network) 的随时间反向传播中权重消失的问题(vanishing gradient problem over backpropagation-through-time),重要组成部分包括Forget Gate, Input Gate, 和 Output Gate, 分别负责决定当前输入是否被采纳,是否被长期记忆以及决定在记忆中的输入是否在当前被输出。Gated Recurrent Unit 是 LSTM 众多版本中典型的一个。因为它具有记忆性的功能,LSTM经常被用在具有时间序列特性的数据和场景中。

遗忘门技术

LSTM或GRU中特有的机制

这个全部的章节请问下在哪看啊
2