Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

Geek AI 路雪编译

如何快速训练免费的文本生成神经网络

本文介绍了如何免费使用 Google Colaboratory 在 GPU 上快速训练文本生成神经网络,包括两种类型的文本生成模型:字符级别和单词级别的文本生成网络。


文本生成是这一波神经网络革命中诞生的一个有趣的应用。大多数目前流行的实现方法都基于 Andrej Karpathy 的「char-rnn」架构(https://github.com/karpathy/char-rnn)或者这篇博文(http://karpathy.github.io/2015/05/21/rnn-effectiveness/),它通过训练使循环神经网络根据之前的 n 个字符预测序列中的下一个字符。因此,在理论上,一个经过了充分训练的网络可以重现它的输入源语料,但是由于经过适当训练的神经网络也不是十全十美的,因此输出文本可能会变成一个很奇怪但是效果也很好的「恐怖谷」(和人的行为很相似但不完全相同)。

许多文本生成神经网络的网上教程只是简单复制了一个现有的 char-rnn 实现同时对输入数据集进行了更改。这确实是一种方法,但是研究者仍然有机会通过现代深度学习工具去改进它。得益于像 TensorFlow 和 Keras 这样的框架,我构建了 textgenrnn(https://github.com/minimaxir/textgenrnn),它是一个将创建和训练这样的 char-rnn 的工作流程抽象为几行代码的 Python 程序包(https://pypi.org/project/textgenrnn/#description),其中包含了大量的模型架构和训练的改进,例如:字符嵌入、注意力加权平均,以及一个衰减的学习率

textgenrnn 的一个好处是它可以免费使用「Google Colaboratory」很容易地在 GPU 上快速地训练神经网络。我创建了一个 notebook(https://drive.google.com/file/d/1mMKGnVxirJnqDViH7BDJxFqWrsXlPSoK/view),它可以让你仅仅通过几次点击就能够训练自己的网络并且生成文本。

开始编写你的第一个文本生成神经网络

Colaboratory 是一个类似其它数据科学项目中使用的 Jupyter Notebooks 的笔记本环境。然而,Colaboratory notebook 被免费托管在一个有两个虚拟 CPU、13GB 内存、一个 K80 GPU 的短期虚拟机上。通常,这种配置的虚拟机需要在谷歌计算引擎上花费 0.57 美元/小时;这个费用听上去很低,但是当你需要训练好几个小时才能取得好的训练结果时,费用就积少成多了。

首先,我建议将该 notebook 复制到硬盘上(如果你没有这么做,那么请使用 Google Chrome 浏览器访问它)。Colaboratory 虚拟机包含了 Python 3 和像「Tensorflow」这样用于机器学习的通用 Python 程序包。但是你可以直接在 notebook 中安装更多的程序包。比如 textgenrnn!只需要点击进入这个单元并且点击「play」按钮(或者使用 Shift + Enter)即可运行这个单元格,其它的部分都将由它控制:

当我们训练新模型时,「textgenrnn」使你能够通过各种各样的参数来指定神经网络的大小和复杂度:

现在让我们保留这些默认的参数,运行该单元将它们加载到内存中。运行下一个单元,它会提示你上传一个文件。任何文本文件都应该能工作,甚至是很大的文本文件!在这个例子中,本文将使用一个在 char-rnn demo 中也使用过的 1.1MB 莎士比亚戏剧的文本文件。

下一个单元将初始化一个 textgenrnn 实例,并开始训练一个新的自定义文本生成神经网络

textgenrnn 自动地将输入文本处理成用于训练神经网络的字符序列。并且每两个 epoch(对数据进行完整的遍历)后,神经网络就会使用不同的温度(temperature)参数来生成文本,这代表了文本的「创造能力」(也就是说,它允许模型做出越来越差的预测,这可能会创造出令人啼笑皆非的文本。)我通常喜欢将温度设置为 0.5 来生成文本,但是对于训练的很好的模型,你可以将它调高为 1。

该模型快速的训练速度要归功于虚拟机的 GPU,它可以比 CPU 更快地执行必要的数学运算。然而,针对循环神经网络,Keras 最近添加了一个 RNN 的 CuDNN 实现,如 CuDNNLSTM,它可以更容易地利用直接在 GPU 上编程的代码,并且较之于之前的实现方法能获得巨大的速度提升(大约是之前的 7 倍)!总的来说,对于这个示例数据集和模型架构,在 GPU 上每训练一个 epoch 需要花费 5 到 6 分钟,而在一个 CPU 上,相同的训练则需要 1 小时 24 分钟。可见,在 GPU 上获得了 14 倍的速度提升!

训练完成后,运行下一个单元将下载以下 3 个文件:一个权重文件(weights)、一个词汇表文件(vocabulary),以及一个配置文件(config),如果你想在其他地方重新生成该模型,这些文件都是必要的。

例如:在你自己的个人电脑上。只用在终端输入 pip3 install textgenrnn tensorflow,即可安装 textgenrnn 和 Tensorflow。切换到下载文件所在的目录,运行 python3,并使用以下代码加载模型:

from textgenrnn import textgenrnn
textgen = textgenrnn(weights_path='colaboratory_weights.hdf5',
vocab_path='colaboratory_vocab.json',
config_path='colaboratory_config.json')

就是这样了!如果你仅仅想生成文本,并不一定需要 GPU。你可以使用 textgen.generate_samples() 来生成样本(比如在训练时),使用 textgen.generate_to_file() 在任意你选定的温度下生成大量的样本。或者使用 textgen.generate(1, return_as_list=True)[0] 将生成的文本引入到 Python 脚本中(例如 Twitter 机器人),从而将文本存储为变量。你可以在这个 demo Jupyter Notebook 中查看 textgenrnn 的更多函数和功能:https://github.com/minimaxir/textgenrnn/blob/master/docs/textgenrnn-demo.ipynb。

以下是在温度参数为 0.5 时,训练了 50 分钟的模型生成的莎士比亚戏剧文本: 

LUCENTIO:

And then shall good grave to my wife thee;

Thou would the cause the brieved to me,

And let the place and then receives:

The rest you the foren to my ways him child,

And marry that will be a parties and so set me that be deeds

And then the heart and be so shall make the most as he and stand of seat.


GLOUCESTER:

Your father and madam, or shall for the people

And dead to make the truth, or a business

As we brother to the place her great the truth;

And that which to the smaster and her father,

I am I was see the sun have to the royal true.

还不错,甚至有点五步抑扬格的意思!

对模型进行调整

上面提到最重要的模型配置选项是 rnn_size 和 rnn_layers:它们决定网络的复杂度。通常来说,你在教程中看到的网络是由 128 个神经元或 256 个神经元组成的网络。然而,textgenrnn 的架构略有不同,因为它有一个包含了前面所有模型层的注意力层。因此,除非你拥有特别大量的文本(>10MB),让模型更深比让模型更宽要好一些(例如,4x128 比 1x512 的模型要好)。rnn_bidirectional 控制循环神经网络是否是双向的,也就是说,它同时向前和向后处理一个字符(如果文本遵循特定的规则,如莎士比亚的字符标题,这种方法会十分有效)。max_length 决定用于预测下一个字符的网络的最大字符数,当网络需要学习更长的序列时应该增大它,而当网络需要学习更短的序列时则应该减小它。

在训练过程中也有很多有用的配置选项。num_epochs 决定了完整遍历数据的次数,如果你想对模型进行更多次的训练,你可以调整这个参数。batch_size 决定了在一个计算步中训练的模型序列的数量,深度学习模型的批处理大小一般是 32 或 128,但是当你拥有一个 GPU 的时候,你可以通过使用给定的 1024 作为缺省批处理大小来获得训练速度的提升。train_size 决定待训练字符样本的比例,将它设置为< 1.0 可以同时加快每个 epoch 的训练速度,同时防止模型通过一字不差地学习并复制原文来「作弊」(你可以将「validation」设置为 True,在每一个 epoch 后利用未使用的数据运行模型,来看看模型是否过拟合)。

下面我们尝试在一个新的文本数据集上对参数进行更多的调整。

用 Reddit 网站的数据进行单词级别的文本生成

你可能会问「如何获取文本数据」。像歌词生成和电影剧本这类流行的文本生成用例都是受到版权保护的,因此你很难找到它们,即使你能够找到一些,往往也可能没有足够的数据来训练一个新的模型(通常需要至少 100,000 个字符)。

然而,Reddit 上有数以百万计的文章标题,这非常有益于训练模型。我写了一个能够在给定的时间内从给定的「subreddit」板块上自动下载自上而下的 n 条 Reddit 文章的 helper 脚本(https://github.com/minimaxir/subreddit-generator)。如果你选择了有相似语言风格的 subreddit,这些 subreddit 甚至会合并在一起!这里,我们获取了 2017 年/r/politics 和/r/technology 板块的前 20000 条文章,最终形成了一个 3.3MB 的文件,其数据大小大约是莎士比亚戏剧数据的 3 倍。

textgenrnn 还可以做到一件大部分 char-rnn 实现不能做到的事,即生成一个单词级别的模型(多亏了 Keras 分词器),该模型使用前面的 n 个单词/标点符号去预测接下来的单词或标点符号。从好的方面说,只使用单词可以防止拼写错误。而且由于它一次预测多个字符,max_length 可以按比例减小,这大大加快了训练速度。然而,这种方法也有两个缺点:由于单词都是小写的,而且每个标点符号就是自己的 token,因此生成的文本必须要经过手动编辑才能使用。

此外,该模型的权重比字符级别的模型大得多,因为单词级别的模型需要存储每个单词的嵌入(取决于 max_word 参数,该参数在单词级模型中的缺省值为 10,000,而字符级模型中的词汇表大小为 200-300)。

Colaboratory notebook 的另一个优点是,你可以快速地调整模型参数、上传新文件,并且立刻开始训练它。由于没有特殊的规则,我们将 line_delimited 设定为 True,将 rnn_bidirectional 设定为 False。对于单词级别的训练,我们将 word_level 设定为 True,将 max_length 设定为 8 来反映新的训练架构。由于训练长度被减少到了五分之一,我们可以将 num_epochs 设定为 50,将 gen_epoch 设定为 10 来平衡它。接下来,我们重新运行配置单元以更新参数,上传 Reddit 数据文件,并且重新训练模型。

最终的模型比莎士比亚戏剧模型训练得更好,以下是在温度为 1.0 的条件下生成的一些 Reddit 文章标题:

report : 49 % of americans now believe all of the country 』 s effective

people like facebook like it ' s 650 of 1 %

uber accused of secretly - security popular service ( likely oklahoma )

equifax breach fallout : your salary is dead

sanders uses texas shooter ' s iphone sales

adobe videos will be used to sell the web

apple to hold cash for $ 500 service

fitbit just targeting solar energy

george bush ' s concept car 『 goes for all the biggest controversy .

尽管要将这个文本贴到社交媒体上还需要进行一些后期的人工编辑,但这已经相当不错了。

后续工作

这些例子只是在短时间内训练模型,作为 textfenrnn 快速学习的演示样例,你可以通过不断地增加 num_epochs 来进一步完善模型。然而,根据我的经验,训练单元在训练进行 4 小时后会出现超时问题:你需要根据具体情况设定 num_epochs 参数,尽管在我的经验里,这是在网络训练收敛之前所需要做的工作。

事实上,我使用了这个 Colaboratory notebool 为/r/SubredditNN 训练了许多模型,这个 Reddit 子板块中只有文本生成神经网络机器人是基于其他 subreddit 板块数据训练的。生成的结果非常有趣:

尽管文本生成神经网络目前还不能自行编写完整的文章,但是仍然有很多机会可以使用它做一些有趣的事!得益于 textgenrnn,这种探索对于每个人来说都是很容易、快速并且划算的!

原文链接:http://minimaxir.com/2018/05/text-neural-networks/

工程教程文本生成Colab
5
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

收敛技术

在数学,计算机科学和逻辑学中,收敛指的是不同的变换序列在有限的时间内达到一个结论(变换终止),并且得出的结论是独立于达到它的路径(他们是融合的)。 通俗来说,收敛通常是指在训练期间达到的一种状态,即经过一定次数的迭代之后,训练损失和验证损失在每次迭代中的变化都非常小或根本没有变化。也就是说,如果采用当前数据进行额外的训练将无法改进模型,模型即达到收敛状态。在深度学习中,损失值有时会在最终下降之前的多次迭代中保持不变或几乎保持不变,暂时形成收敛的假象。

学习率技术

在使用不同优化器(例如随机梯度下降,Adam)神经网络相关训练中,学习速率作为一个超参数控制了权重更新的幅度,以及训练的速度和精度。学习速率太大容易导致目标(代价)函数波动较大从而难以找到最优,而弱学习速率设置太小,则会导致收敛过慢耗时太长

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

机器人技术技术

机器人学(Robotics)研究的是「机器人的设计、制造、运作和应用,以及控制它们的计算机系统、传感反馈和信息处理」 [25] 。 机器人可以分成两大类:固定机器人和移动机器人。固定机器人通常被用于工业生产(比如用于装配线)。常见的移动机器人应用有货运机器人、空中机器人和自动载具。机器人需要不同部件和系统的协作才能实现最优的作业。其中在硬件上包含传感器、反应器和控制器;另外还有能够实现感知能力的软件,比如定位、地图测绘和目标识别。之前章节中提及的技术都可以在机器人上得到应用和集成,这也是人工智能领域最早的终极目标之一。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

过拟合技术

过拟合是指为了得到一致假设而使假设变得过度严格。避免过拟合是分类器设计中的一个核心任务。通常采用增大数据量和测试样本集的方法对分类器性能进行评价。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

推荐文章
暂无评论
暂无评论~