Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

苏剑林作者

玩转Keras之Seq2Seq自动生成标题

话说自称搞了这么久的 NLP,我都还没有真正跑过 NLP 与深度学习结合的经典之作——Seq2Seq。这两天兴致来了,决定学习并实践一番 Seq2Seq,当然最后少不了 Keras 实现了。

Seq2Seq 可以做的事情非常多,我这挑选的是比较简单的根据文章内容生成标题(中文),也可以理解为自动摘要的一种。选择这个任务主要是因为“文章-标题”这样的语料对比较好找,能快速实验一下。

Seq2Seq简介

所谓 Seq2Seq,就是指一般的序列到序列的转换任务,比如机器翻译、自动文摘等等,这种任务的特点是输入序列和输出序列是不对齐的,如果对齐的话,那么我们称之为序列标注,这就比 Seq2Seq 简单很多了。所以尽管序列标注任务也可以理解为序列到序列的转换,但我们在谈到 Seq2Seq 时,一般不包含序列标注。 

要自己实现 Seq2Seq,关键是搞懂 Seq2Seq 的原理和架构,一旦弄清楚了,其实不管哪个框架实现起来都不复杂。早期有一个第三方实现的 Keras 的 Seq2Seq 库 [1],现在作者也已经放弃更新了,也许就是觉得这么简单的事情没必要再建一个库了吧。可以参考的资料还有去年 Keras 官方博客中写的 A ten-minute introduction to sequence-to-sequence learning in Keras [2]。 

基本结构

假如原句子为 X=(a,b,c,d,e,f),目标输出为 Y=(P,Q,R,S,T),那么一个基本的 Seq2Seq 就如下图所示。

▲ 基本的Seq2Seq架构

尽管整个图的线条比较多,可能有点眼花,但其实结构很简单。左边是对输入的 encoder,它负责把输入(可能是变长的)编码为一个固定大小的向量,这个可选择的模型就很多了,用 GRU、LSTM 等 RNN 结构或者 CNN+Pooling、Google 的纯 Attention 等都可以,这个固定大小的向量,理论上就包含了输入句子的全部信息。

而 decoder 负责将刚才我们编码出来的向量解码为我们期望的输出。与 encoder 不同,我们在图上强调 decoder 是“单向递归”的,因为解码过程是递归进行的,具体流程为:

1. 所有输出端,都以一个通用的<start>标记开头,以<end>标记结尾,这两个标记也视为一个词/字;

2. 将<start>输入 decoder,然后得到隐藏层向量,将这个向量与 encoder 的输出混合,然后送入一个分类器,分类器的结果应当输出 P;

3. 将 P 输入 decoder,得到新的隐藏层向量,再次与 encoder 的输出混合,送入分类器,分类器应输出 Q;

4. 依此递归,直到分类器的结果输出<end>。

这就是一个基本的 Seq2Seq 模型的解码过程,在解码的过程中,将每步的解码结果送入到下一步中去,直到输出<end>位置。

训练过程

事实上,上图也表明了一般的 Seq2Seq 的训练过程。由于训练的时候我们有标注数据对,因此我们能提前预知 decoder 每一步的输入和输出,因此整个结果实际上是“输入 X 和 Y,预测 Y[1:],即将目标 Y 错开一位来训练。 

而 decoder 同样可以用 GRU、LSTM 或 CNN 等结构,但注意再次强调这种“预知未来”的特性仅仅在训练中才有可能,在预测阶段是不存在的,因此 decoder 在执行每一步时,不能提前使用后面步的输入。

所以,如果用 RNN 结构,一般都只使用单向 RNN;如果使用 CNN 或者纯 Attention,那么需要把后面的部分给 mask 掉(对于卷积来说,就是在卷积核上乘上一个 0/1 矩阵,使得卷积只能读取当前位置及其“左边”的输入,对于 Attention 来说也类似,不过是对 query 的序列进行 mask 处理)。 

敏感的读者可能会察觉到,这种训练方案是“局部”的,事实上不够端到端。比如当我们预测 R 时是假设 Q 已知的,即 Q 在前一步被成功预测,但这是不能直接得到保证的。一般前面某一步的预测出错,那么可能导致连锁反应,后面各步的训练和预测都没有意义了。 

有学者考虑过这个问题,比如文章 Sequence-to-Sequence Learning as Beam-Search Optimization [3] 把整个解码搜索过程也加入到训练过程,而且还是纯粹梯度下降的(不用强化学习),是非常值得借鉴的一种做法。不过局部训练的计算成本比较低,一般情况下我们都只是使用局部训练来训练 Seq2Seq。

Beam Search 

前面已经多次提到了解码过程,但还不完整。事实上,对于 Seq2Seq 来说,我们是在建模:

显然在解码时,我们希望能找到最大概率的 Y,那要怎么做呢? 

如果在第一步 p(Y1|X) 时,直接选择最大概率的那个(我们期望是目标 P),然后代入第二步 p(Y2|X,Y1),再次选择最大概率的 Y2,依此类推,每一步都选择当前最大概率的输出,那么就称为贪心搜索,是一种最低成本的解码方案。但是要注意,这种方案得到的结果未必是最优的,假如第一步我们选择了概率不是最大的 Y1,代入第二步时也许会得到非常大的条件概率 p(Y2|X,Y1),从而两者的乘积会超过逐位取最大的算法。 

然而,如果真的要枚举所有路径取最优,那计算量是大到难以接受的(这不是一个马尔可夫过程,动态规划也用不了)。因此,Seq2Seq 使用了一种折中的方法:Beam Search。 

这种算法类似动态规划,但即使在能用动态规划的问题下,它还比动态规划要简单,它的思想是:在每步计算时,只保留当前最优的 topk 个候选结果。比如取 topk=3,那么第一步时,我们只保留使得 p(Y1|X) 最大的前 3 个 Y1,然后分别代入 p(Y2|X,Y1),然后各取前三个 Y2,这样一来我们就有个组合了,这时我们计算每一种组合的总概率,然后还是只保留前三个,依次递归,直到出现了第一个<end>。显然,它本质上还属于贪心搜索的范畴,只不过贪心的过程中保留了更多的可能性,普通的贪心搜索相当于 topk=1。

Seq2Seq提升

前面所示的 Seq2Seq 模型是标准的,但它把整个输入编码为一个固定大小的向量,然后用这个向量解码,这意味着这个向量理论上能包含原来输入的所有信息,会对 encoder 和 decoder 有更高的要求,尤其在机器翻译等信息不变的任务上。因为这种模型相当于让我们“看了一遍中文后就直接写出对应的英文翻译”那样,要求有强大的记忆能力和解码能力,事实上普通人完全不必这样,我们还会反复翻看对比原文,这就导致了下面的两个技巧。 

Attention

Attention 目前基本上已经是 Seq2Seq 模型的“标配”模块了,它的思想就是:每一步解码时,不仅仅要结合 encoder 编码出来的固定大小的向量(通读全文),还要往回查阅原来的每一个字词(精读局部),两者配合来决定当前步的输出。 

▲ 带Attention的Seq2Seq

至于 Attention 的具体做法,笔者之前已经撰文介绍过了,请参考一文读懂「Attention is All You Need」| 附代码实现。Attention 一般分为乘性和加性两种,笔者介绍的是 Google 系统介绍的乘性的 Attention,加性的 Attention 读者可以自行查阅,只要抓住 query、key、value 三个要素,Attention 就都不难理解了。

先验知识

回到用 Seq2Seq 生成文章标题这个任务上,模型可以做些简化,并且可以引入一些先验知识。比如,由于输入语言和输出语言都是中文,因此 encoder 和 decoder 的 Embedding 层可以共享参数(也就是用同一套词向量)。这使得模型的参数量大幅度减少了。 

此外,还有一个很有用的先验知识标题中的大部分字词都在文章中出现过(注:仅仅是出现过,并不一定是连续出现,更不能说标题包含在文章中,不然就成为一个普通的序列标注问题了)。这样一来,我们可以用文章中的词集作为一个先验分布,加到解码过程的分类模型中,使得模型在解码输出时更倾向选用文章中已有的字词。

具体来说,在每一步预测时,我们得到总向量 x(如前面所述,它应该是 decoder 当前的隐层向量、encoder 的编码向量、当前 decoder 与 encoder 的 Attention 编码三者的拼接),然后接入到全连接层,最终得到一个大小为 |V| 的向量 y=(y1,y2,…,y|V|),其中 |V| 是词表的词数。y 经过 softmax 后,得到原本的概率:

这就是原始的分类方案。引入先验分布的方案是,对于每篇文章,我们得到一个大小为 |V| 的 0/1 向量 χ=(χ1,χ2,…,χ|V|),其中 χi=1 意味着该词在文章中出现过,否则 χi=0。将这样的一个 0/1 向量经过一个缩放平移层得到:

其中 s,t 为训练参数,然后将这个向量与原来的 y 取平均后才做 softmax:

经实验,这个先验分布的引入,有助于加快收敛,生成更稳定的、质量更优的标题。

Keras参考

又到了快乐的开源时光~ 

基本实现

基于上面的描述,我收集了 80 多万篇新闻的语料,来试图训练一个自动标题的模型。简单起见,我选择了以字为基本单位,并且引入了 4 个额外标记,分别代表 mask、unk、start、end。而 encoder 我使用了双层双向 LSTM,decoder 使用了双层单向 LSTM。具体细节可以参考源码: 

https://github.com/bojone/seq2seq/blob/master/seq2seq.py

我以 6.4 万文章为一个 epoch,训练了 50 个 epoch 之后,基本就生成了看上去还行的标题:

文章内容:8 月 28 日,网络爆料称,华住集团旗下连锁酒店用户数据疑似发生泄露。从卖家发布的内容看,数据包含华住旗下汉庭、禧玥、桔子、宜必思等 10 余个品牌酒店的住客信息。泄露的信息包括华住官网注册资料、酒店入住登记的身份 信息及酒店开房记录,住客姓名、手机号、邮箱、身份证号、登录账号密码等。卖家对这个约 5 亿条数据打包出售。第三方安全平台威胁猎人对信息出售者提供的三万条数据进行验证,认为数据真实性非常高。当天下午,华住集团发 声明称,已在内部迅速开展核查,并第一时间报警。当晚,上海警方消息称,接到华住集团报案,警方已经介入调查。 

生成标题:《酒店用户数据疑似发生泄露》

文章内容:新浪体育讯 北京时间 10 月 16 日,NBA 中国赛广州站如约开打,火箭再次胜出,以 95-85 击败篮网。姚明渐入佳境,打了 18 分 39 秒,8 投 5 中,拿下 10 分 5 个篮板,他还盖帽 1 次。火箭以两战皆胜的战绩圆满结束中国行。 

生成标题:《直击:火箭两战皆胜火箭再胜 广州站姚明10分5板》

当然这只是两个比较好的例子,还有很多不好的例子,直接用到工程上肯定是不够的,还需要很多“黑科技”优化才行。

mask 

在 Seq2Seq 中,做好 mask 是非常重要的,所谓 mask,就是要遮掩掉不应该读取到的信息、或者是无用的信息,一般是用 0/1 向量来乘掉它。Keras 自带的 mask 机制十分不友好,有些层不支持 mask,而普通的 LSTM 开启了 mask 后速度几乎下降了一半。所以现在我都是直接以 0 作为 mask 的标记,然后自己写个 Lambda 层进行转化的,这样速度基本无损,而且支持嵌入到任意层,具体可以参考上面的代码。 

要注意我们以往一般是不区分 mask 和 unk(未登录词)的,但如果采用我这种方案,还是把未登录词区分一下比较好,因为未登录词尽管我们不清楚具体含义,它还是一个真正的词,至少有占位作用,而 mask 是我们希望完全抹掉的信息。 

解码端

代码中已经实现了 beam search 解码,读者可以自行测试不同的 topk 对解码结果的影响。 

这里要说的是,参考代码中对解码的实现是比较偷懒的,会使得解码速度大降。理论上来说,我们每次得到当前时刻的输出后,我们只需要传入到 LSTM 的下一步迭代中去,就可以得到下一时刻的输出,但这需要重写解码端的 LSTM(也就是要区分训练阶段和测试阶段,两者共享权重),相对复杂,而且对初学者并不友好。所以我使用了一个非常粗暴的方案:每一步预测都重跑一次整个模型,这样一来代码量最少,但是越到后面越慢,原来是 𝒪(n) 的计算量变成了

最后的话

又用 Keras 跑通了一个例子,不错不错,坚定不移高举 Keras 旗帜~

自动标题任务的语料比较好找,而且在 Seq2Seq 任务中属于难度比较低的一个,适合大家练手,想要入坑的朋友赶紧上吧。

参考文献

[1]. https://github.com/farizrahman4u/seq2seq

[2]. https://blog.keras.io/a-ten-minute-introduction-to-sequence-to-sequence-learning-in-keras.html

[3]. Sam Wiseman and Alexander M Rush. Sequence-to-sequence learning as beam-search optimization. In EMNLP, 2016.

PaperWeekly
PaperWeekly

推荐、解读、讨论和报道人工智能前沿论文成果的学术平台。

理论KerasSeq2Seq
71
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

动态规划技术

动态规划(也称为动态优化),是一种在数学、管理科学、计算机科学、经济学和生物信息学中使用的,通过把原问题分解为相对简单的子问题的方式求解复杂问题的方法。动态规划将复杂的问题分解成一系列相对简单的子问题,只解决一次子问题并存储它的解决方案(solution),下一次遇到同样的子问题时无需重新计算它的解决方案,而是简单地查找先前计算的解决方案,从而节省计算时间。动态规划适用于有最优子结构(Optimal Substructure)和重叠子问题(Overlapping Subproblems)性质的问题。

池化技术

池化(Pooling)是卷积神经网络中的一个重要的概念,它实际上是一种形式的降采样。有多种不同形式的非线性池化函数,而其中“最大池化(Max pooling)”是最为常见的。它是将输入的图像划分为若干个矩形区域,对每个子区域输出最大值。直觉上,这种机制能够有效的原因在于,在发现一个特征之后,它的精确位置远不及它和其他特征的相对位置的关系重要。池化层会不断地减小数据的空间大小,因此参数的数量和计算量也会下降,这在一定程度上也控制了过拟合。通常来说,CNN的卷积层之间都会周期性地插入池化层。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

收敛技术

在数学,计算机科学和逻辑学中,收敛指的是不同的变换序列在有限的时间内达到一个结论(变换终止),并且得出的结论是独立于达到它的路径(他们是融合的)。 通俗来说,收敛通常是指在训练期间达到的一种状态,即经过一定次数的迭代之后,训练损失和验证损失在每次迭代中的变化都非常小或根本没有变化。也就是说,如果采用当前数据进行额外的训练将无法改进模型,模型即达到收敛状态。在深度学习中,损失值有时会在最终下降之前的多次迭代中保持不变或几乎保持不变,暂时形成收敛的假象。

机器翻译技术

机器翻译(MT)是利用机器的力量「自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)」。机器翻译方法通常可分成三大类:基于规则的机器翻译(RBMT)、统计机器翻译(SMT)和神经机器翻译(NMT)。

梯度下降技术

梯度下降是用于查找函数最小值的一阶迭代优化算法。 要使用梯度下降找到函数的局部最小值,可以采用与当前点的函数梯度(或近似梯度)的负值成比例的步骤。 如果采取的步骤与梯度的正值成比例,则接近该函数的局部最大值,被称为梯度上升。

先验知识技术

先验(apriori ;也译作 先天)在拉丁文中指“来自先前的东西”,或稍稍引申指“在经验之前”。近代西方传统中,认为先验指无需经验或先于经验获得的知识。先验知识不依赖于经验,比如,数学式子2+2=4;恒真命题“所有的单身汉一定没有结婚”;以及来自纯粹理性的推断“本体论证明”

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

推荐文章
给大家提供一份新闻标题生成的语料。。下载地址 https://github.com/shawroad/Keras-Learning-Summary/tree/master/05-%E6%96%B0%E9%97%BB%E6%A0%87%E9%A2%98%E7%9A%84%E7%94%9F%E6%88%90/data/%E4%BB%8A%E6%97%A5%E5%A4%B4%E6%9D%A1%E6%96%B0%E9%97%BB%E6%95%B0%E6%8D%AE