Andre Ye作者陈萍 杜伟编译

如何高效、快速、准确地完成ML任务,这4个AutoML库了解一下

AutoML 是当前深度学习领域的热门话题。只需要很少的工作,AutoML 就能通过快速有效的方式,为你的 ML 任务构建好网络模型,并实现高准确率。简单有效!数据预处理、特征工程、特征提取和特征选择等任务皆可通过 AutoML 自动构建。

图源:https://unsplash.com/photos/pjAH2Ax4uWk

自动机器学习(Automated Machine Learning, AutoML)是一个新兴的领域,在这个领域中,建立机器学习模型来建模数据的过程是自动化的。AutoML 使得建模更容易,并且每个人都更容易掌握。

在本文中,作者详细介绍了四种自动化的 ML 工具包,分别是 auto-sklearn、TPOT、HyperOpt 以及 AutoKeras。如果你对 AutoML 感兴趣,这四个 Python 库是最好的选择。作者还在文章结尾文章对这四个工具包进行了比较。

auto-sklearn

auto-sklearn 是一个自动机器学习工具包,它与标准 sklearn 接口无缝集成,因此社区中很多人都很熟悉该工具。通过使用最近的一些方法,比如贝叶斯优化,该库被用来导航模型的可能空间,并学习推理特定配置是否能很好地完成给定任务。

该库由 Matthias Feurer 等人提出,技术细节请查阅论文《Efficient and Robust Machine Learning》。Feurer 在这篇论文中写道:
我们提出了一个新的、基于 scikit-learn 的鲁棒 AutoML 系统,其中使用 15 个分类器、14 种特征预处理方法和 4 种数据预处理方法,生成了一个具有 110 个超参数的结构化假设空间。
auto-sklearn 可能最适合刚接触 AutoML 的用户。除了发现数据集的数据准备和模型选择之外,该库还可以从在类似数据集上表现良好的模型中学习。表现最好的模型聚集在一个集合中。

图源:《Efficient and Robust Automated Machine Learning》 

在高效实现方面,auto-sklearn 需要的用户交互最少。使用 pip install auto-sklearn 即可安装库。

该库可以使用的两个主要类是 AutoSklearnClassifier 和 AutoSklearnRegressor,它们分别用来做分类和回归任务。两者具有相同的用户指定参数,其中最重要的是时间约束和集合大小。

import autosklearn as ask#ask.regression.AutoSklearnRegressor() for regression tasksmodel = ask.classification.AutoSklearnClassifier(ensemble_size=10, #size of the end ensemble (minimum is 1)                                                 time_left_for_this_task=120, #the number of seconds the process runs for                                                 per_run_time_limit=30) #maximum seconds allocated per modelmodel.fit(X_train, y_train) #begin fitting the search modelprint(model.sprint_statistics()) #print statistics for the searchy_predictions = model.predict(X_test) #get predictions from the model

更多 AutoSklearn 相关文档请查阅:https://automl.github.io/auto-sklearn/master/

TPOT

TPOT 是另一种基于 Python 的自动机器学习开发工具,该工具更关注数据准备、建模算法和模型超参数。它通过一种基于进化树的结,即自动设计和优化机器学习 pipelie 的树表示工作流优化(Tree-based Pipeline Optimization Tool, TPOT),从而实现特征选择、预处理和构建的自动化。

图源:《Evaluation of a Tree-based Pipeline Optimization Tool for Automating Data Science》 。

程序或 pipeline 用树表示。遗传编程(Genetic Program, GP)选择并演化某些程序,以最大化每个自动化机器学习管道的最终结果。

正如 Pedro Domingos 所说,「数据量大的愚蠢算法胜过数据有限的聪明算法」。事实就是这样:TPOT 可以生成复杂的数据预处理 pipeline。

潜在的 pipelie(图源:TPOT 文档)。

TPOT pipeline 优化器可能需要几个小时才能产生很好的结果,就像很多 AutoML 算法一样(除非数据集很小)。用户可以在 Kaggle commits 或 Google Colab 中运行这些耗时的程序。

import tpotpipeline_optimizer = tpot.TPOTClassifier(generations=5, #number of iterations to run the training                                         population_size=20, #number of individuals to train                                         cv=5) #number of folds in StratifiedKFoldpipeline_optimizer.fit(X_train, y_train) #fit the pipeline optimizer - can take a long timeprint(pipeline_optimizer.score(X_test, y_test)) #print scoring for the pipelinepipeline_optimizer.export('tpot_exported_pipeline.py') #export the pipeline - in Python code!

也许 TPOT 最好的特性是它将模型导出为 Python 代码文件,后续可以使用它。具体文档和教程示例参见以下两个链接:
HyperOpt

HyperOpt 是一个用于贝叶斯优化的 Python 库,由 James Bergstra 开发。该库专为大规模优化具有数百个参数的模型而设计,显式地用于优化机器学习 pipeline,并可选择在多个核心和机器上扩展优化过程。

但是,HyperOpt 很难直接使用,因为它非常具有技术性,需要仔细指定优化程序和参数。相反,作者建议使用 HyperOpt-sklearn,这是一个融合了 sklearn 库的 HyperOpt 包装器。

具体来说,HyperOpt 虽然支持预处理,但非常关注进入特定模型的几十个超参数。就一次 HyperOpt sklearn 搜索的结果来说,它生成了一个没有预处理的梯度提升分类器:

{'learner': GradientBoostingClassifier(ccp_alpha=0.0, criterion='friedman_mse', init=None,                           learning_rate=0.009132299586303643, loss='deviance',                           max_depth=None, max_features='sqrt',                           max_leaf_nodes=None, min_impurity_decrease=0.0,                           min_impurity_split=None, min_samples_leaf=1,                           min_samples_split=2, min_weight_fraction_leaf=0.0,                           n_estimators=342, n_iter_no_change=None,                           presort='auto', random_state=2,                           subsample=0.6844206624548879, tol=0.0001,                           validation_fraction=0.1, verbose=0,                           warm_start=False), 'preprocs': (), 'ex_preprocs': ()}

如何构建 HyperOpt-sklearn 模型可以查看源文档。它比 auto-sklearn 复杂得多,也比 TPOT 复杂一点。但是如果超参数很重要的话,它可能是值得的。

文档地址:http://hyperopt.github.io/hyperopt-sklearn/

AutoKeras

与标准机器学习库相比,神经网络和深度学习功能更强大,因此更难实现自动化。AutoKeras 库有哪些功效呢?具体如下:
  • 通过 AutoKeras,神经框架搜索算法可以找到最佳架构,如单个网络层中的神经元数量、层数量、要合并的层、以及滤波器大小或 Dropout 中丢失神经元百分比等特定于层的参数。一旦搜索完成,用户可以将其作为普通的 TF/Keras 模型使用;

  • 通过 AutoKeras,用户可以构建一个包含嵌入和空间缩减等复杂元素的模型,这些元素对于学习深度学习过程中的人来说是不太容易访问的;

  • 当使用 AutoKeras 创建模型时,向量化或清除文本数据等许多预处理操作都能完成并进行优化;

  • 初始化和训练一次搜索需要两行代码。AutoKeras 拥有一个类似于 keras 的界面,所以它并不难记忆和使用。


AutoKeras 支持文本、图像和结构化数据,为初学者和寻求更多参与技术知识的人提供界面。AutoKeras 使用进化神经网络架构搜索方法来减轻研究人员的繁重和模棱两可的工作。

尽管 AutoKeras 的运行需要很长时间,但用户可以指定参数来控制运行时间、探索模型的数量以及搜索空间大小等。

Hyperparameter      |Value     |Best Value So Far  text_block_1/block_type|transformer|transformer        classification_head_1/dropout|0         |0                  optimizer           |adam      |adam                learning_rate       |0.001     |0.001              text_block_1/max_tokens|20000     |20000              text_block_1/text_to_int_sequence_1/output_sequence_length|200       |200                text_block_1/transformer_1/pretraining|none      |none                text_block_1/transformer_1/embedding_dim|32        |32                  text_block_1/transformer_1/num_heads|2         |2                  text_block_1/transformer_1/dense_dim|32        |32                  text_block_1/transformer_1/dropout|0.25      |0.25                text_block_1/spatial_reduction_1/reduction_type|global_avg|global_avg          text_block_1/dense_block_1/num_layers|1         |1                  text_block_1/dense_block_1/use_batchnorm|False     |False              text_block_1/dense_block_1/dropout|0.5       |0.5                text_block_1/dense_block_1/units_0|20        |20

AutoKeras 的相关内容参阅以下两个链接:

四个库各有特色,应该选哪个?

用户可以根据自己的需求选择合适的 Python 库,作者给出了以下几个建议:

  • 如果你的首要任务是获取一个干净、简单的界面和相对快速的结果,选择 auto-sklearn。另外:该库与 sklearn 自然集成,可以使用常用的模型和方法,能很好地控制时间;

  • 如果你的首要任务是实现高准确率,并且不需要考虑长时间的训练,则使用 TPOT。额外收获:为最佳模型输出 Python 代码;

  • 如果你的首要任务是实现高准确率,依然不需要考虑长时间的训练,也可选择使用 HyperOpt-sklearn。该库强调模型的超参数优化,是否富有成效取决于数据集和算法;

  • 如果你需要神经网络(警告:不要高估它们的能力),就使用 AutoKeras,尤其是以文本或图像形式出现时。训练确实需要很长时间,但有很多措施可以控制时间和搜索空间大小。

参考链接:https://towardsdatascience.com/4-python-automl-libraries-every-data-scientist-should-know-680ff5d6ad08

工程PythonAutoML
3
暂无评论
暂无评论~