一鸣、杜伟、Jamin参与

斯坦福CS330 2019秋季课程视频全新上线,专注多任务与元学习

2019 年秋季,斯坦福大学计算机科学与电子工程系的助理教授 Chelsea Finn 开了一门关于深度多任务和元学习的课程,受到了广大学生的欢迎。今天,该课程的系列教学视频终于上线了!

今日,斯坦福大学助理教授 Chelsea Finn 发推表示其主讲的 CS330 深度多任务和元学习系列课程视频可以线上观看了。

CS330 系列课程视频链接:https://www.youtube.com/playlist?list=PLoROMvodv4rMC6zfYmnD7UG3LVvwaITY5

课程侧重多任务模型训练和元学习

尽管深度学习监督学习强化学习生取得了成功,诸如图像分类语音识别和 AI 游戏等。但是这些模型,在很大程度上,是准门诊对特定的单一任务训练的。对此,这门课程会介绍如何在多任务的情况下训练模型,并研究针对多任务的模型架构,使得模型在训练效率或性能上有更好的提升。

本次课程包括以下具体内容:
  • 以目标为条件的强化学习技术,使得学习者能够了解根据给定的目标空间,通过特定的家都使得模型在学习多个任务的时候都会很快;

  • 元学习技术,通过高效的学习算法,使得学习新技术的时候能够更快;

  • 大纲和终身学习,这需要模型学习一系列任务,并通过共享的架构来让之前任务中学习到的知识能快速迁移到下个任务中。

此外,由于多任务学习的内容较为丰富,也需要很多基本的深度学习知识做铺垫,因此这是一个研究生级别的课程。在课程结束后,学生能欧了解并应用很多 SOTA 的多任务或元学习模型,并在这个领域开展研究。

授课形式

本次课程是以大课和阅读课为主的。在大课上,授课教师会介绍理解和设计应用多任务学习元学习的必要知识点。在阅读课中,学生会要求展示和讨论最近在这一领域中的工作和应用。本次课程共有三次大作业。在学期中,每个学生也都需要在一个相关领域进行研究工作,并在期末展示他们的研究成果。

课程要求

由于课程需要深度学习基础知识,所以学生应当有上过 CS 229 或类似的机器学习入门课程。CS 221 等人工智能入门课程也推荐学生去提前了解一下,但不是必要的。

课程时间表

CS330 系列课程共分 13 周完成,授课时间自 2019 年 9 月 23 日开始至 12 月 16 日结束。以下是部分课程时间列表:

参考链接:http://cs330.stanford.edu/

课程主讲人简介
该系列课程主讲人 Chelsea Finn 现为斯坦福大学计算机科学与电子工程系助理教授。她在麻省理工学院取得电气工程与计算机科学学士学位,并在加州大学伯克利分校获得电气工程与计算机科学博士学位。之后,Finn 曾任谷歌大脑研究科学家,并在 BAIR 实验室进行博士后研究。2019 年秋季正式成为斯坦福大学全职助理教授。

Chelsea Finn 年纪轻轻就已成为机器人学习领域最知名的专家之一,她曾有多篇论文发表在 ICML、ICLR、NeurIPS、ICRA、RSS、CoRL 等多个学术会议上,并在多个学术会议及 workshop 上进行受邀演讲。

此外,Chelsea Finn 凭借其论文《Learning to Learn with Gradients》荣获了 2018 ACM 最佳博士论文奖,她在这篇论文中介绍了一种基于梯度的新型元学习算法,帮助深度网络基于小型数据集解决新任务,该算法可用于计算机视觉强化学习和机器人学等领域。
入门元学习深度学习多任务学习斯坦福大学
2
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

元学习技术

元学习是机器学习的一个子领域,是将自动学习算法应用于机器学习实验的元数据上。现在的 AI 系统可以通过大量时间和经验从头学习一项复杂技能。但是,我们如果想使智能体掌握多种技能、适应多种环境,则不应该从头开始在每一个环境中训练每一项技能,而是需要智能体通过对以往经验的再利用来学习如何学习多项新任务,因此我们不应该独立地训练每一个新任务。这种学习如何学习的方法,又叫元学习(meta-learning),是通往可持续学习多项新任务的多面智能体的必经之路。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

监督学习技术

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

多任务学习技术

图像分类技术

图像分类,根据各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。它利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

加州大学伯克利分校机构

加利福尼亚大学伯克利分校,简称加州大学伯克利分校,又常被译为加利福尼亚大学伯克莱分校,位于美国加利福尼亚州旧金山湾区伯克利市,是一所世界著名的公立研究型大学。其许多科系位于全球大学排行前十名,是世界上最负盛名的大学之一,常被誉为美国乃至世界最顶尖的公立大学。

https://www.berkeley.edu/
推荐文章
暂无评论
暂无评论~