学术君作者

2019年实用性超强的五大机器学习课程

凭借强大的统计学基础,机器学习正在成为最有趣、节奏最快的计算机科学领域之一。它可以应用于无穷无尽的行业,使它们更高效和智能。聊天机器人、垃圾邮件过滤、广告投放、搜索引擎和欺诈检测是机器学习模型如何支撑日常生活的几个例子,机器学习是让我们找到模式并为人类无法做的事情创建数学模型的原因。

与包含探索性数据分析,统计,通信和可视化技术等主题的数据科学课程不同,机器学习课程侧重于仅教授机器学习算法,它们如何以数学方式工作,以及如何在编程语言中使用它们。

今天学术君给大家推荐实用性超强的五个机器学习课程:

#1 机器学习 - Coursera

(课程网址:https://medium.com/@LearnDataSci/top-5-machine-learning-courses-for-2019-8a259572686e)

#2 深度学习专业化 - Coursera

(课程网址:https://www.learndatasci.com/out/coursera-deep-learning-specialization/)

#3 使用Python进行机器学习 - Coursera

(课程网址:https://www.learndatasci.com/out/coursera-ibm-machine-learning-python/)

#4 高级机器学习专业化 - Coursera

(课程网址:https://www.learndatasci.com/out/coursera-advanced-machine-learning-specialization/)

#5 机器学习 - EdX

(课程网址:https://www.learndatasci.com/out/edx-columbia-machine-learning/)

列表中的每门课程都遵循以下标准:

  • 严格关注机器学习

  • 使用免费的开源编程语言,即Python,R或Octave

  • 为这些语言使用免费的开源库

  • 包含练习和实践经验的编程任务

  • 解释算法,如何以数学方式工作

  • 每个月左右都可以自我调节

  • 有吸引力的老师和有趣的讲座

  • 在各种论坛获得高于平均水平的评分和评论

为了让自己沉浸其中并尽可能快速全面地学习ML,我相信除了在线学习之外,你还应该寻找各种书籍。以下是两本对我的学习经历产生重大影响的书籍。

两本优秀的书籍伴侣

除了参加下面的任何视频课程,如果您对机器学习还不熟悉,您应该考虑阅读以下书籍:

1.《Springer Texts in Statistics》——《统计学习简介》

本书提供了令人难以置信的清晰直接的解释和示例,以提高您对许多基本机器学习技术的整体数学直觉。本书更多的是关于事物的理论方面,但它确实包含许多使用R编程语言的练习和例子。

2.《hands-on machine learning with scikit-learn and tensorflow》

Github上有中文译版:https://github.com/apachecn/hands-on-ml-zh

这是对前一本书一个很好的补充,因为本文主要关注使用Python进行机器学习的应用。与以下任何课程一起,本书将强化您的编程技巧,并向您展示如何立即将机器学习应用于项目。

现在,让我们来看看课程描述和评论。

#1 机器学习 - Coursera

此课程的老师和创作者的是Andrew Ng,斯坦福大学教授,谷歌大脑,Coursera的创始人之一。

本课程使用开源编程语言Octave而不是Python或R进行分配。如果你是一个完整的初学者,Octave实际上是一种学习ML基础知识的简单方法。

总的来说,课程材料非常全面,并且由Ng直观地表达。完整地解释了理解每个算法所需的所有数学,包括一些微积分解释和线性代数的复习。该课程相当独立,但事先对线性代数的一些了解肯定会有所帮助。

课程结构:

1.单变量的线性回归

2.线性代数评论

3.具有多个变量的线性回归

4.Octave / Matlab教程

5.Logistic回归

6.正则

7.神经网络:表示

8.神经网络:学习

9.应用机器学习的建议

10.机器学习系统设计

11.支持向量机

12.降维

13.异常检测

14.推荐系统

15.大规模机器学习

16.应用示例:Photo OCR

所有这些内容需学习十一周左右,如果您完成了整个课程,您将在大约四个月内掌握机器学习的基础知识。

之后,您可以轻松地进入更高级或专业的主题,如深度学习、ML工程或任何其他引起您兴趣的话题。

毫无疑问,这是以新手开始的最佳课程。

#2 深度学习专业化 - Coursera

该课程的老师依旧是Andrew Ng教授,它是一个更高级的课程系列,适合任何有兴趣学习神经网络深度学习的人,以及帮助他们解决许多问题。

每门课程的作业和讲座都使用Python编程语言,并将TensorFlow库用于神经网络。这自然是Ng的机器学习课程一个很好的后续,因为你会收到类似的讲座风格,但现在将先使用Python进行机器学习

课程结构:

1.神经网络深度学习

  • 深度学习简介

  • 神经网络基础知识

  • 浅层神经网络

  • 深度神经网络

2.改进神经网络超参数调整,正则化和优化

  • 深度学习的实践方面

  • 优化算法

  • 超参数调整,批量标准化和编程框架

3.构建机器学习项目

  • ML策略(1)

  • ML策略(2)

4.卷积神经网络

  • 卷积神经网络的基础

  • 深度卷积模型:案例研究

  • 物体检测

  • 特殊应用:人脸识别和神经风格转移

5.序列模型

  • 递归神经网络

  • 自然语言处理和Word嵌入

  • 序列模型和注意机制

#3 使用Python进行机器学习 - Coursera

另一个初学者课程,这个课程仅关注最基本的机器学习算法。教师、幻灯片动画和算法说明非常合适初学者,让您对基础知识有一种直观的感觉。

本课程使用Python,并且在算法背后的数学上稍微简单一些。通过每个模块,您将有机会在浏览器中使用交互式Jupyter笔记本电脑来检验您刚学过的新概念。每个笔记本都增强了您的知识,并为您提供了在实际数据上使用算法的具体说明。

课程结构:

1.机器学习简介

2.回归

3.分类

4.聚类

5.推荐系统

6.最终项目

本课程最好的一点是为每种算法提供实用的建议。当引入新算法时,教师会向您提供它的工作原理、优点和缺点,以及您应该使用它的哪种情况。这些点经常被排除在其他课程之外,这些信息对于新学员来说非常重要。

#4 高级机器学习专业化 - Coursera

这是另一个高级系列课程,投入了非常广泛的网络。如果您有兴趣尽可能多地使用机器学习技术,这个专业化是平衡和广泛的在线课程的关键。

本课程的教学非常棒:非常精彩,简洁。由于其先进性,您需要比目前列出的任何其他课程更多的数学知识。如果您已经参加了初学者课程并学习了线性代数微积分,那么这是填补其余机器学习专业知识的不错选择。

本专业化涵盖的大部分内容对许多机器学习项目至关重要。

完成这一系列课程大约需要8到10个月,所以如果你从今天开始,在不到一年的时间里,你将学到大量的机器学习,并能够开始处理更多尖端的应用程序。

#5 机器学习 - EdX

这是一个高级课程,具有该列表中任何其他课程的最高数学先决条件。你需要非常牢固地掌握线性代数微积分,概率和编程。该课程在Python或Octave中都有有趣的编程作业,但该课程不教授任何一种语言。

如果您有兴趣阅读教科书,例如《Machine Learning :A Probabilistic Perspective》→《机器学习:概率视角》 ,这是硕士课程中推荐较多的数据科学书籍之一  ,这门课程将是一个很棒的补充。

课程结构:

1.最大似然估计线性回归最小二乘法

2.岭回归,偏差方差,贝叶斯法则,最大后验推断

3.最近邻分类,贝叶斯分类器线性分类器感知

4.Logistic回归,Laplace逼近,核方法,高斯过程

5.最大边距,支持向量机(SVM),决策树,随机森林,提升

6.聚类,K均值,EM算法,缺失数据

7.高斯混合,矩阵分解

8.非负矩阵分解,潜在因子模型,PCA和变化

9.马尔可夫模型,隐马尔可夫模型

10.连续状态空间模型,关联分析

11.模型选择,后续步骤

课程中的许多主题都包含在针对初学者的其他课程中,但数学并未在这里淡化。如果您已经学习了这些技术,有兴趣深入研究数学,并希望从事实际推导出某些算法的编程作业,那么请学习本课程。

基本算法

机器学习中有一套基本的算法,每个人都应该熟悉并具有使用经验。这些是:

  • 线性回归

  • Logistic回归

  • k-Means聚类

  • k-最近邻

  • 支持向量机(SVM)

  • 决策树

  • 随机森林

  • 朴素贝叶斯

这些是必需品,但还有很多,上面列出的课程基本上包含所有这些和一些变化。在开展新项目时,了解这些技术如何工作以及何时使用它们将非常重要。

信息来源:Medium

AMiner学术头条
AMiner学术头条

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。系统2006年上线,吸引了全球220个国家/地区800多万独立IP访问,数据下载量230万次,年度访问量1000万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。

https://www.aminer.cn/
专栏二维码
入门深度学习机器学习
61
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

线性分类器技术

机器学习通过使用对象的特征来识别它所属的类(或组)来进行统计分类。线性分类器通过基于特征的线性组合的值进行分类决策。 对象的特征也称为特征值,通常在称为特征向量的向量中呈现给机器。

数据分析技术

数据分析是一类统计方法,其主要特点是多维性和描述性。有些几何方法有助于揭示不同的数据之间存在的关系,并绘制出统计信息图,以更简洁的解释这些数据中包含的主要信息。其他一些用于收集数据,以便弄清哪些是同质的,从而更好地了解数据。 数据分析可以处理大量数据,并确定这些数据最有用的部分。

最小二乘法技术

最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。 利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。 “最小二乘法”是对过度确定系统,即其中存在比未知数更多的方程组,以回归分析求得近似解的标准方法。在这整个解决方案中,最小二乘法演算为每一方程式的结果中,将残差平方和的总和最小化。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

数据科学技术

数据科学,又称资料科学,是一门利用数据学习知识的学科,其目标是通过从数据中提取出有价值的部分来生产数据产品。它结合了诸多领域中的理论和技术,包括应用数学、统计、模式识别、机器学习、数据可视化、数据仓库以及高性能计算。数据科学通过运用各种相关的数据来帮助非专业人士理解问题。

最大似然估计技术

极大似然估计是统计学中用来估计概率模型参数的一种方法

异常检测技术

在数据挖掘中,异常检测(英语:anomaly detection)对不符合预期模式或数据集中其他项目的项目、事件或观测值的识别。 通常异常项目会转变成银行欺诈、结构缺陷、医疗问题、文本错误等类型的问题。 异常也被称为离群值、新奇、噪声、偏差和例外。

人脸识别技术

广义的人脸识别实际包括构建人脸识别系统的一系列相关技术,包括人脸图像采集、人脸定位、人脸识别预处理、身份确认以及身份查找等;而狭义的人脸识别特指通过人脸进行身份确认或者身份查找的技术或系统。 人脸识别是一项热门的计算机技术研究领域,它属于生物特征识别技术,是对生物体(一般特指人)本身的生物特征来区分生物体个体。

超参数技术

在机器学习中,超参数是在学习过程开始之前设置其值的参数。 相反,其他参数的值是通过训练得出的。 不同的模型训练算法需要不同的超参数,一些简单的算法(如普通最小二乘回归)不需要。 给定这些超参数,训练算法从数据中学习参数。相同种类的机器学习模型可能需要不同的超参数来适应不同的数据模式,并且必须对其进行调整以便模型能够最优地解决机器学习问题。 在实际应用中一般需要对超参数进行优化,以找到一个超参数元组(tuple),由这些超参数元组形成一个最优化模型,该模型可以将在给定的独立数据上预定义的损失函数最小化。

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

贝叶斯分类器技术

基于贝叶斯概率定理的分类器

非负矩阵分解技术

推荐系统技术

推荐系统(RS)主要是指应用协同智能(collaborative intelligence)做推荐的技术。推荐系统的两大主流类型是基于内容的推荐系统和协同过滤(Collaborative Filtering)。另外还有基于知识的推荐系统(包括基于本体和基于案例的推荐系统)是一类特殊的推荐系统,这类系统更加注重知识表征和推理。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

随机森林技术

在机器学习中,随机森林是一个包含多个决策树的分类器,并且其输出的类别是由个别树输出的类别的众数而定。 Leo Breiman和Adele Cutler发展出推论出随机森林的算法。而"Random Forests"是他们的商标。这个术语是1995年由贝尔实验室的Tin Kam Ho所提出的随机决策森林(random decision forests)而来的。这个方法则是结合Breimans的"Bootstrap aggregating"想法和Ho的"random subspace method" 以建造决策树的集合。

高斯过程技术

线性回归技术

在现实世界中,存在着大量这样的情况:两个变量例如X和Y有一些依赖关系。由X可以部分地决定Y的值,但这种决定往往不很确切。常常用来说明这种依赖关系的最简单、直观的例子是体重与身高,用Y表示他的体重。众所周知,一般说来,当X大时,Y也倾向于大,但由X不能严格地决定Y。又如,城市生活用电量Y与气温X有很大的关系。在夏天气温很高或冬天气温很低时,由于室内空调、冰箱等家用电器的使用,可能用电就高,相反,在春秋季节气温不高也不低,用电量就可能少。但我们不能由气温X准确地决定用电量Y。类似的例子还很多,变量之间的这种关系称为“相关关系”,回归模型就是研究相关关系的一个有力工具。

卷积神经网络技术

卷积神经网路(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网路由一个或多个卷积层和顶端的全连通层(对应经典的神经网路)组成,同时也包括关联权重和池化层(pooling layer)。这一结构使得卷积神经网路能够利用输入数据的二维结构。与其他深度学习结构相比,卷积神经网路在图像和语音识别方面能够给出更好的结果。这一模型也可以使用反向传播算法进行训练。相比较其他深度、前馈神经网路,卷积神经网路需要考量的参数更少,使之成为一种颇具吸引力的深度学习结构。 卷积网络是一种专门用于处理具有已知的、网格状拓扑的数据的神经网络。例如时间序列数据,它可以被认为是以一定时间间隔采样的一维网格,又如图像数据,其可以被认为是二维像素网格。

朴素贝叶斯技术

朴素贝叶斯是一种构建分类器的简单方法。该分类器模型会给问题实例分配用特征值表示的类标签,类标签取自有限集合。它不是训练这种分类器的单一算法,而是一系列基于相同原理的算法:所有朴素贝叶斯分类器都假定样本每个特征与其他特征都不相关。举个例子,如果一种水果其具有红,圆,直径大概3英寸等特征,该水果可以被判定为是苹果。尽管这些特征相互依赖或者有些特征由其他特征决定,然而朴素贝叶斯分类器认为这些属性在判定该水果是否为苹果的概率分布上独立的。

支持向量机技术

在机器学习中,支持向量机是在分类与回归分析中分析数据的监督式学习模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法创建一个将新的实例分配给两个类别之一的模型,使其成为非概率二元线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。

马尔可夫模型技术

「马尔可夫模型」是指基于马尔可夫性质的模型,其假设一个给定过程的未来状态仅取决于当前状态。根据系统状态是否完全可被观测以及系统是自动的还是受控的,可以将常见的马尔可夫模型分成四种:马尔可夫链、隐马尔可夫模型(HMM)、马尔可夫决策过程(MDP)和部分可观测马尔可夫决策过程(POMDP)。另外还有马尔可夫随机场(MRF)和马尔可夫链蒙特卡洛(MCMC)这两个模型也常常被用于近似和预测。

降维技术

降维算法是将 p+1 个系数的问题简化为 M+1 个系数的问题,其中 M<p。算法执行包括计算变量的 M 个不同线性组合或投射(projection)。然后这 M 个投射作为预测器通过最小二乘法拟合一个线性回归模型。两个主要的方法是主成分回归(principal component regression)和偏最小二乘法(partial least squares)。

隐马尔可夫模型技术

隐马尔可夫模型(Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,例如模式识别。

正则化技术

当模型的复杂度增大时,训练误差会逐渐减小并趋向于0;而测试误差会先减小,达到最小值后又增大。当选择的模型复杂度过大时,过拟合现象就会发生。这样,在学习时就要防止过拟合。进行最优模型的选择,即选择复杂度适当的模型,以达到使测试误差最小的学习目的。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

微积分技术

微积分(Calculus)是高等数学中研究函数的微分(Differentiation)、积分(Integration)以及有关概念和应用的数学分支。它是数学的一个基础学科。内容主要包括极限、微分学、积分学及其应用。微分学包括求导数的运算,是一套关于变化率的理论。它使得函数、速度、加速度和曲线的斜率等均可用一套通用的符号进行讨论。积分学,包括求积分的运算,为定义和计算面积、体积等提供一套通用的方法 。

线性代数技术

线性代数是数学的一个分支,它的研究对象是向量,向量空间(或称线性空间),线性变换和有限维的线性方程组。向量空间是现代数学的一个重要课题;因而,线性代数被广泛地应用于抽象代数和泛函分析中;通过解析几何,线性代数得以被具体表示。线性代数的理论已被泛化为算子理论。由于科学研究中的非线性模型通常可以被近似为线性模型,使得线性代数被广泛地应用于自然科学和社会科学中。

在线学习技术

在计算机科学中,在线学习是一种机器学习方法。和立即对整个训练数据集进行学习的批处理学习技术相反,在线学习的数据按顺序可用,并在每个步骤使用未来数据更新最佳预测器。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

感知器技术

感知器是Frank Rosenblatt在1957年就职于Cornell航空实验室时所发明的一种人工神经网络。它可以被视为一种最简单形式的前馈神经网络,是一种二元线性分类器。 Frank Rosenblatt给出了相应的感知机学习算法,常用的有感知机学习、最小二乘法和梯度下降法。

聚类技术

将物理或抽象对象的集合分成由类似的对象组成的多个类的过程被称为聚类。由聚类所生成的簇是一组数据对象的集合,这些对象与同一个簇中的对象彼此相似,与其他簇中的对象相异。“物以类聚,人以群分”,在自然科学和社会科学中,存在着大量的分类问题。聚类分析又称群分析,它是研究(样品或指标)分类问题的一种统计分析方法。聚类分析起源于分类学,但是聚类不等于分类。聚类与分类的不同在于,聚类所要求划分的类是未知的。聚类分析内容非常丰富,有系统聚类法、有序样品聚类法、动态聚类法、模糊聚类法、图论聚类法、聚类预报法等。

推荐文章
打开链接需要翻墙吗