蒋宝尚作者

CS231n最全学霸笔记

斯坦福CS231n,这是一门每学期的视频更新都会引起一波尖叫的明星课。

即使在斯坦福,这也是新生们每学期抢到手软都抢不到的神课。今年斯坦福春季学期开学周文摘菌有幸来到斯坦福,亲自前排听了这门课的线下版,据助教介绍,今年有超过800人注册抢课。

斯坦福2018春季学期CS231N课程introduction部分,前排视角实拍

这门课由AI圈领军人李飞飞老师亲自设计教学,专注深度学习计算机视觉领域的应用,内容涵盖多种神经网络具体结构与训练应用细节,质量和内容都非常之高。

网易云公开课链接

http://study.163.com/course/courseMain.htm?courseId=1003223001

想到有这么多同龄人又要超过你,头又大了。然而,好多已经开始学习的同学内心可能是这样的

其实文摘菌的内心也是崩溃的:Andrej Karpathy大神的语速啊……不过他没有出现在最新的2017春季学期的课程里。他已经博士毕业了,现在在特斯拉负责人工智能。

接下来,跟文摘菌一起了解一下这份超多人点赞的学习资料吧!

资料地址:

https://github.com/mbadry1/    CS231n-2017-Summary

资料索引

资料的开头,首先给出了索引,包括18个子目录。前两个部分是对课程做一个简单的介绍,后面16个子目录是课程的精华部分,包括图像分类、损失函数和优化、神经网络等知识点的笔记。总的来说,看完这篇图文并茂的汇总资料,你的脑海中会对李飞飞的这门课程有一个整体的逻辑结构。

想了解课程详情的同学,可以去资料目录的course info部分寻找,在这部分,你可以找到课程简介、观看视频的网址、完整的教学大纲网址,以及课程作业的网址等内容。

注:

图注内容是笔记所属的内容~

资料精华展示☟

图像分类

损失函数和优化

训练神经网络

CNN框架

CNN框架

CNN框架

循环神经网络

循环神经网络

检测和分割

检测和分割

生成模型

深度强化学习

最后再次给出资料地址:

https://github.com/mbadry1/<  /CS231n-2017-Summary


大数据文摘
大数据文摘

秉承“普及数据思维,传播数据文化,助⼒产业发展”的企业⽂化,我们专注于数据领域的资讯、案例、技术,形成了“媒体+教育+⼈才服务”的良性⽣态,致⼒于打造精准数据科学社区。

入门计算机视觉CS231n
154
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

深度强化学习技术

强化学习(Reinforcement Learning)是主体(agent)通过与周围环境的交互来进行学习。强化学习主体(RL agent)每采取一次动作(action)就会得到一个相应的数值奖励(numerical reward),这个奖励表示此次动作的好坏。通过与环境的交互,综合考虑过去的经验(exploitation)和未知的探索(exploration),强化学习主体通过试错的方式(trial and error)学会如何采取下一步的动作,而无需人类显性地告诉它该采取哪个动作。强化学习主体的目标是学习通过执行一系列的动作来最大化累积的奖励(accumulated reward)。 一般来说,真实世界中的强化学习问题包括巨大的状态空间(state spaces)和动作空间(action spaces),传统的强化学习方法会受限于维数灾难(curse of dimensionality)。借助于深度学习中的神经网络,强化学习主体可以直接从原始输入数据(如游戏图像)中提取和学习特征知识,然后根据提取出的特征信息再利用传统的强化学习算法(如TD Learning,SARSA,Q-Learnin)学习控制策略(如游戏策略),而无需人工提取或启发式学习特征。这种结合了深度学习的强化学习方法称为深度强化学习。

损失函数技术

在数学优化,统计学,计量经济学,决策理论,机器学习和计算神经科学等领域,损失函数或成本函数是将一或多个变量的一个事件或值映射为可以直观地表示某种与之相关“成本”的实数的函数。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

生成模型技术

在概率统计理论中, 生成模型是指能够随机生成观测数据的模型,尤其是在给定某些隐含参数的条件下。 它给观测值和标注数据序列指定一个联合概率分布。 在机器学习中,生成模型可以用来直接对数据建模(例如根据某个变量的概率密度函数进行数据采样),也可以用来建立变量间的条件概率分布。

推荐文章
厉害(ง •̀_•́)ง
棒棒
哇哦