吴恩达斯坦福CS230深度学习课程补充资料放出

还记的吴恩达在斯坦福最新的深度学习课程么?那是继deeplearning.ai深度学习专项课程之后吴恩达的又一神作。

课程助教

课程涉及深度学习的基础知识、神经网络构建,以及如何完成一个成功的机器学习项目。具体将涉及卷积网络,RNNs,LSTM,Adam,Dropout,BatchNorm,Xavier / He初始化等,还提供医疗,自动驾驶,手语阅读,音乐创作和自然语言处理等多领域的案例研究。

如此优秀的课程,可惜是线下课程,不能满足所有人的需求,因此文摘菌之前给出过课程的相关资料,也推荐过此课程的一个具体的项目《用GAN补全镜头外的世界》。可以帮助非斯坦福的同学学习课程,现在文摘菌给出课程的补充资料,吴恩达的粉丝快快收藏吧~~~

此补充资料分为实践项目和最终项目,而且所有的资料都放在GitHub中,下面文摘菌给出简介和GitHub地址,感兴趣的同学自行浏览和下载。

GitHub链接:

https://cs230-stanford.github.io/pytorch-nlp.html

实践项目

这一部分包括TensorFlow简介和数据的预处理。其中TensorFlow简介分为两个部分,第一部分是TensorFlow教程,通过这个教程你可以通过MNIST数据库用代码建立一个神经网络,对数据集进行分类。另一部分是一个项目实现的参考代码,目的是为了更好地熟悉教学人员提供的CS 230项目示例代码。

CS230项目示例代码:

https://github.com/cs230-stanford/cs230-code-examples

数据的预处理也包括两部分,其中第一部分是图像数据的预处理,在这一部分中,通过练习能够使用流行的库“skImage”对图像进行预处理,然后运用到Keras编码的神经网络中。第二部分是文本数据的预处理,除此之外附录中给出了一个训练数据以及模型的代码示例。

GitHub链接:

https://github.com/cs230-stanford/cs230-code-examples/tree/master/tensorflow

最终项目

最终项目分为4个部分,包括简介,最佳实践展示,TensorFlow以及pytorch。其中简介目录下有两个子目录。项目代码示例的介绍目录下整体介绍了怎样帮助熟悉ProjectCode示例,并介绍一系列解释如何构建深度学习项目的文章。AWS setup目录下介绍了如何为深度学习项目建立AWS。

第二部分是最佳项目示例也有两个子目录,包括,对训练数据集,开发数据集以及测试数据集的分离。第二个子目录介绍了如何配置文件、加载超参数以及如何做随机搜索等。

最终项目的第三部分是TensorFlow的一系列的知识,包括TensorFlow的简介,如何构建数据管道以及如何创建和训练模型。这一部分的TensorFlow简介与前面不同的是:帮助学生了解更多的TensorFlow相关信息,以及了解如何使用tf.layers轻松构建模型

第四部分是PyTorch版块,分为三个子目录,第一个子目录帮助了解有关PyTorch的更多信息,以及帮助学习如何在PyTorch中正确构造深度学习项目等。第二部分是卷积网络的定义及使用pytorch对图像数据进行高效的加载。第三部分是教会学生定义递归网络并加载文本数据。

GitHub链接:

https://cs230-stanford.github.io/pytorch-nlp.html

入门吴恩达斯坦福CS230深度学习
51
相关数据
神经网络技术
Neural Network

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

超参数技术
Hyperparameter

在机器学习中,超参数是在学习过程开始之前设置其值的参数。 相反,其他参数的值是通过训练得出的。 不同的模型训练算法需要不同的超参数,一些简单的算法(如普通最小二乘回归)不需要。 给定这些超参数,训练算法从数据中学习参数。相同种类的机器学习模型可能需要不同的超参数来适应不同的数据模式,并且必须对其进行调整以便模型能够最优地解决机器学习问题。 在实际应用中一般需要对超参数进行优化,以找到一个超参数元组(tuple),由这些超参数元组形成一个最优化模型,该模型可以将在给定的独立数据上预定义的损失函数最小化。

机器学习技术
Machine Learning

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

自然语言处理技术
Natural language processing

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

自动驾驶技术
self-driving

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

深度学习技术
Deep learning

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

张量技术
Tensor

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

TensorFlow技术
TensorFlow

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

大数据文摘
大数据文摘

秉承“普及数据思维,传播数据文化,助⼒产业发展”的企业⽂化,我们专注于数据领域的资讯、案例、技术,形成了“媒体+教育+⼈才服务”的良性⽣态,致⼒于打造精准数据科学社区。

大数据文摘
大数据文摘

秉承“普及数据思维,传播数据文化,助⼒产业发展”的企业⽂化,我们专注于数据领域的资讯、案例、技术,形成了“媒体+教育+⼈才服务”的良性⽣态,致⼒于打造精准数据科学社区。

推荐文章
返回顶部