范式大学| 普通程序员如何向人工智能靠拢?

相信看到这篇文章的朋友,几乎都想成为机器学习科学家。

事实上,绝大多数的付费课程,基本上都有完全免费的课程放在另一个地方。我们只是把这些信息整理好,告诉你在哪儿可以找到他们,以及通过什么样的顺序进行学习。

这样,哪怕你是还没毕业的大学生,或者是初入职场的工程师,都可以通过自学的方式掌握机器学习科学家的基础技能,并在论文、工作甚至日常生活中快速应用。

在这里我们推荐一份用户友好型的机器学习教程,你可以通过几个月的学习成为机器学习科学家,完全免费。

一份用户友好型的机器学习教程

当你学习机器学习课程时,有没有被信息过载所淹没?

大部分的学习者都遇到了这个问题,这不是他们的错,因为绝大多数的机器学习课程都过于关注个别算法了。 

没错,虽然算法很重要,但他们还是把太多时间花在了算法上。 

以至于......你几乎很难在短时间内走完一遍机器学习的流程,从而感受到通过它解决具体数据问题的巨大兴奋。

这些机器学习课程关注于算法是因为它容易教。相比之下,如果机器学习老师要带你走一遍机器学习的流程,那么他需要搭建计算环境,完成数据采集、清洗、拆分,特征处理,模型调参和模型预测,甚至他还需要一个面向学习者的交互界面。老师哪有这么多的工具,与其手把手带着学生走一遭,还不如学习机器学习算法。 

但这样的问题是,很难有人能坚持通过自学,成为一个卓越的机器学习科学家。哪怕他是数学博士,或者技术高超的程序员,都很容易陷在细节中而难以有具体项目实现的成就感。 

这份教程将会带来完全不同的思路。它非常适合自学者,即便完全没有编程的基础,也能通过恰当的工具快速实现机器学习模型,解决工作、生活中遇到的具体问题。

值得注意的是,我们享用了世界顶级的机器学习资源,而不需要花费 1 分钱。 

 自我学习的方法

我们推荐通过 Doing Shit(不是技术术语)完成你的学习。

在这之前你也许已经学习过机器学习了,但从我和朋友们的经验来看,往往会被各种神秘的符号、公式、大量的教科书和论文整的晕头转向,然后再也不想碰这恼人的玩意了。

我们的方法会更加友好,它的学习过程就像小朋友学习一样,你会了解一些基础的知识(但不一定要完全弄懂),然后通过好用的工具快速实现出来就好了。而当你被建模出来的结果吸引,那时候我们才谈算法背后的数学逻辑和计算逻辑

所以我们会在学习中做很多机器学习项目,这样的好处是当你面对一个工作机会时,你就是一个经验丰富的机器学习科学家了!

当然自学本身是需要自律的,这本教程将一直陪伴着你,以下是 4 个步骤。

步骤一:前提条件

机器学习之所以看起来很吓人,是因为总伴随着那些晦涩难懂的术语。实际上,即便你是中文系毕业的,也可以学好机器学习。不过,我们需要你在一些领域有基础的理解。

好消息是,一旦你满足了前提条件,其余的将会非常容易。事实上,几乎所有的机器学习都是把统计学和计算机科学的概念应用于数据领域

任务:确保你了解基础的统计学、编程和数学 

统计学:理解统计学、特别是贝叶斯概率对许多机器学习算法来说都是至关重要的。 

免费的指南:How to Learn Statistics for Data Science, The Self-Starter Way 

https://elitedatascience.com/learn-statistics-for-data-science

编程:懂得编程将会更灵活的应用机器学习。 

免费的指南:How to Learn Python for Data Science, The Self-Starter Way 

https://elitedatascience.com/learn-python-for-data-science

数学:对原始算法的研究需要线性代数、多变量计算的基础。 

免费的指南:How to Learn Math for Data Science, The Self-Starter Way 

https://elitedatascience.com/learn-math-for-data-science

你可以先看看这些教程,给你的机器学习道路打下知识基础。

步骤二:海绵模式

海绵模式是尽可能吸收足够多的机器学习理论知识。 

现在有些人可能会想:“如果我不打算进行原创性研究,为什么在可以使用现有机器学习包的时候,还需要学习理论?” 

这是一个合理的问题!

然而,如果你想把机器学习更灵活的应用于日常工作,学习一些基础理论还是很有好处的,而且你并不需要完全弄懂。下面我们会剧透学习机器学习理论的 5 个理由。

好消息是,你不需要一开始就知道所有问题的答案。所以我们推荐你从学习足够的理论开始,然后快速进入到实践。这样的话,你比较能够坚持下来,并在一段时间后真正精通机器学习

以下是一些免费的机器学习资料。

2.1 机器学习视频课程

这是来自哈佛大学和耶鲁大学的世界级课程。

任务:完成至少一门课程 

哈佛大学数据科学课程 

端到端的数据科学课程。相比吴恩达的课程,它对机器学习的重视程度较低,但是从数据收集到分析,你可以在这里学到整个数据科学的工作流程。 

课程主页:http://cs109.github.io/2015/

斯坦福大学机器学习课程 

这是吴恩达的著名课程,这些视频说清楚了机器学习背后的核心理念。如果你的时间只能上一节课,我们建议这个。 

课程主页:

https://www.youtube.com/watch?v=qeHZOdmJvFU&list=PLZ9qNFMHZ-A4rycgrgOYma6zxF4BZGGPW&index=1

2.2 机器学习参考资料

接下来我们推荐行业中两本经典的教材。 

任务:看这些 PDF 作为教科书 

An Introduction to Statistical Learning 

Gentler 在书里介绍了统计学习的基本要素,适合所有机器学习的学习者。 

PDF 地址:http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf

Elements of Statistical Learning 

严格的介绍了机器学习理论和数学,推荐给机器学习的研究员。 

PDF 地址:http://statweb.stanford.edu/~tibs/ElemStatLearn/

2.3 成功的关键

以下是每个步骤成功的关键。 

A:注重大局,总是问为什么 

每当你被介绍一个新概念时,问一句“为什么”。为什么在某些情况下要使用决策树而不是回归?为什么要规范参数?为什么要拆分数据集?当你了解为什么使用每个工具时,你将成为真正的机器学习从业者。

B:接受你不会记得所有学过的东西 

不要疯狂的做笔记,也不要每个课程都复习 3 次。在自己的实际工作中,你会经常需要回过头查看。

C:继续前进,不要气馁 

尽量避免在一个话题上拖太久的时间。即便是对于机器学习教授来说,有些概念也很不好解释。但是当你在实践中开始应用时,你会很快就懂得概念的真实含义。

D:视频比教科书更有效 

从我们的经验来看,教科书是很好的参考工具,但它很难坚持。我们强烈推荐视频讲座的形式。 

步骤三:有目的实践

在海绵模式之后,我们会通过刻意练习的方式磨练技能,把机器学习能力提高到一个新水平。目标包括三个方面:

1.实践完整的机器学习流程:包括数据收集、清洗、预处理,建立模型,调整参数和模型评估。 

2.在真实的数据集中练习,逐渐建立哪种模型适合哪种挑战的直觉。

3.深入到一个具体主题中,例如在数据集中应用不同类型的聚类算法,看哪些效果最好。 

在完成这些步骤后,当你开始解决大型项目时就不会不知所措了。

3.1 机器学习工具

为了快速实现机器学习模型,我们推荐使用现成的建模工具。这样的话,你会在短时间内练习整个机器学习的工作流程,而无需在任何一个步骤花费太多时间。这会给你非常有价值的“大局直觉”(Big Picture Intuition)。

Python:Scikit-Learn 

Scikit-learn 和 Sklearn 是通用机器学习中 Python 的黄金标准库,它具有常规算法的实现。 

R:Caret 

Caret 为 R 语言中的模型包提供一个统一的界面。它还包括了预处理、数据拆分、模型评估的功能,使其成为一个完整的端到端解决方案。

3.2 实践数据集

学习了工具后,你还需要一些数据集。数据科学和机器学习的艺术,很多都在于解决问题时的几十个微观决定。我们会在不同的数据集中看到建模的结果。

任务:从以下选项中选择 5 到 10 个数据集。我们建议从 UCI 的机器学习库开始,例如你可以选择 3 个数据集,分别用于回归、分类和聚类。 

在进行机器学习工程的时候,想想以下问题:

  • 你需要为每个数据集执行哪些类型的预处理?

  • 你需要进行降维操作吗?你可以使用什么方法? 

  • 你可以如何拆分数据集? 

  • 你怎么知道模型是否出现“过拟合”? 

  • 你应该使用哪些类型的性能指标? 

  • 不同的参数调整会如何影响模型的结果? 

  • 你能够进行模型组合以得到更好的结果吗? 

  • 你的聚类结果和直观的相符么?

UCI 机器学习报告 

UCI 机器学习报告采集了超过 350 个不同的数据集,专门为机器学习提供训练数据。你可以按照任务搜索(回归、分类或聚类),也可以按照行业、数据集大小搜索。 

http://archive.ics.uci.edu/ml/

Kaggle 

Kaggle.com 以举办数据科学比赛闻名,但是该网站还拥有超过 180 个社区数据集,它们包含了有趣的话题,从用户宠物小精灵到欧洲足球比赛的数据应有尽有。 

https://www.kaggle.com/datasets

Data.gov 

如果你正在寻找社会科学或者与政府有关的数据集,请查看 Data.gov。这是美国政府开放数据集合,你可以搜索超过 190,000 个数据集。 

https://www.data.gov/

步骤四:完成机器学习项目

好了,现在到了真正有趣的部分了。到目前为止,我们已经涵盖了前提条件、基本理论和有目的实践。现在我们准备好进入更大的项目。 

这一步骤的目标是将机器学习技术整合到完整的、端到端的分析中。

4.1 完成一个机器学习项目

泰坦尼克号幸存者预测挑战是一个非常受欢迎的机器学习实践项目,事实上,这是 Kaggle.com 上最受欢迎的比赛。

我们喜欢以这个项目作为起点,因为它有很多伟大的教程。你可以从中了解到这些有经验的数据科学家们是怎么处理数据探索、特征工程和模型调参的。 

Python 教程 

我们真的非常喜欢这个教程,因为它教会你如何进行数据预处理和纠正数据。教程由 Pycon UK 提供。 

教程地址:https://github.com/savarin/pyconuk-introtutorial

R 教程

在 R 中使用 Caret 包来处理几个不同的模型。本教程很好总结了端到端的预测建模过程。 

教程地址:http://amunategui.github.io/binary-outcome-modeling/

这是一个“不负责任”的快速教程:仅仅是个教程,跳过了理论讲解。不过这也很有用,而且它显示了如何进行随机森林操作。 

教程地址:http://will-stanton.com/machine-learning-with-r-an-irresponsibly-fast-tutorial/

4.2 从头写个算法

为了对机器学习有更深的理解,没有什么比从头写个算法有帮助了,因为魔鬼总是在细节里。

我们建议从一些简单的开始,例如逻辑回归、决策树或者 KNN 算法。

这个项目也为你提供了一个将数据语言翻译成程序语言的实践。当你想把最新的学术界研究应用于工作时,这个技能将会十分方便。 

而如果你卡住了,这里有一些提示: 

  • 维基百科有很多好资源,它有很多常见算法的伪代码

  • 为了培养你的灵感,请尝试查看现有机器学习软件包的源代码。

  • 将你的算法分解,为采样、梯度下降等编写单独的功能 

  • 从简单开始,在尝试编写随机森林前,先执行一个决策树。

4.3 选择一个有趣的项目或领域

如果你没有好奇心,你是很难学好的。但目前为止,也许你已经找到了想坚持下去的领域,那么开始建模吧!

老实说这是机器学习最好的部分了。这是一个强大的工具,而一旦你开始理解,很多想法都会主动找上门。 

好消息是,如果你一直在跟踪,也准备好从事这份工作,那么你的收获会远超你的想象! 

我们也推荐了 6 个有趣的机器学习项目。 

地址:https://elitedatascience.com/machine-learning-projects-for-beginners

入门
1
相关数据
降维技术
Dimensionality reduction

降维算法是将 p+1 个系数的问题简化为 M+1 个系数的问题,其中 M<p。算法执行包括计算变量的 M 个不同线性组合或投射(projection)。然后这 M 个投射作为预测器通过最小二乘法拟合一个线性回归模型。两个主要的方法是主成分回归(principal component regression)和偏最小二乘法(partial least squares)。

特征工程技术
Feature engineering

特征工程是利用数据所在领域的相关知识来构建特征,使得机器学习算法发挥其最佳的过程。它是机器学习中的一个基本应用,实现难度大且代价高。采用自动特征工程方法可以省去采用人工特征工程的需求。Andrew Ng 说“挖掘特征是困难、费时且需要专业知识的事,应用机器学习其实基本上是在做特征工程。”

逻辑技术
Logic

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

梯度下降技术
Gradient Descent

梯度下降是用于查找函数最小值的一阶迭代优化算法。 要使用梯度下降找到函数的局部最小值,可以采用与当前点的函数梯度(或近似梯度)的负值成比例的步骤。 如果采取的步骤与梯度的正值成比例,则接近该函数的局部最大值,被称为梯度上升。

机器学习技术
Machine Learning

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

过拟合技术
Overfitting

过拟合是指为了得到一致假设而使假设变得过度严格。避免过拟合是分类器设计中的一个核心任务。通常采用增大数据量和测试样本集的方法对分类器性能进行评价。

伪代码技术
pseudocode

伪代码,又称为虚拟代码,是高层次描述算法的一种方法。它不是一种现实存在的编程语言;它可能综合使用多种编程语言的语法、保留字,甚至会用到自然语言。 它以编程语言的书写形式指明算法的职能。相比于程序语言它更类似自然语言。它是半形式化、不标准的语言。

参数技术
parameter

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

随机森林技术
Random Forest

在机器学习中,随机森林是一个包含多个决策树的分类器,并且其输出的类别是由个别树输出的类别的众数而定。 Leo Breiman和Adele Cutler发展出推论出随机森林的算法。而"Random Forests"是他们的商标。这个术语是1995年由贝尔实验室的Tin Kam Ho所提出的随机决策森林(random decision forests)而来的。这个方法则是结合Breimans的"Bootstrap aggregating"想法和Ho的"random subspace method" 以建造决策树的集合。

吴恩达人物
Andrew Ng

推荐文章
严格的评选标准,造就了这张分享量过千的在线机器学习课程榜单
机器之心1
《Python机器学习》作者Sebastian Raschka的Quora专题
机器之心
初学者必读:从迭代的五个层面理解机器学习
吴攀
返回顶部