魔王、张倩报道

DeepMind、UCL新课上线,多位科学家携手打造深度学习课程

十多位 DeepMind 研究科学家,AlphaGo、AlphaStar 参与者亲自授课,DeepMind & UCL《深度学习课程》上线。

今日,DeepMind 放出了与伦敦大学学院(UCL)人工智能中心合作的深度学习课程视频。

这门课共有 12 节,目前 DeepMind 仅放出了一半,即 6 个视频,每个视频约一个半小时。

该课程由 DeepMind 科学家与 UCL 人工智能中心合作进行,简要介绍了深度学习领域的不同主题。

在全部 12 节课中,DeepMind 研究科学家讲述了多个主题,包括通过记忆、注意力和生成建模相关思路训练神经网络的基础知识,以及如何实现负责任的创新这类进阶主题等等。

具体而言,该课程的 12 个主题分别是:「机器学习与 AI 导论」、「神经网络基础」、「用于图像识别的卷积神经网络」、「计算机视觉高级模型」、「机器学习优化」、「序列与循环网络」、「用深度学习自然语言处理」、「深度学习中的注意力和记忆」、「生成式潜在变量模型与变分推断」、「深度学习前沿:无监督表征学习」、「生成对抗网络」和「负责任的创新」。

该课程的每节课均由不同的主讲人进行授课,授课人信息如下:

以第一节课《机器学习与 AI 导论》为例,主讲人为 DeepMind 研究科学家、UCL 教授 Thore Graepel。他在课堂上解释了 DeepMind 的机器学习方法,并介绍了多个将深度学习强化学习结合起来构建智能系统的案例,如 AlphaGo、Capture The Flag 和 AlphaStar。

大牛云集,这门课程入股不亏

第一节课的主讲人 Thore Graepel 是 DeepMind 研究负责人、伦敦大学学院教授。他曾于 2003 年加入微软研究院(剑桥),在此期间联合创立了微软研究院的在线服务和广告部门。Thore 的研究兴趣包括概率图模型、强化学习、博弈论、多智能体系统等。迄今为止,他已经发表了一百多篇经过同行评审的论文,是几十项专利的共同发明人,曾参与打造 AlphaGo。

此外,其他主讲人也大多参与过一些我们熟知的工作:

  • Wojciech Czarnecki 是 DeepMind 的研究科学家,致力于深度强化学习的研究,曾参与 AlphaStar 项目;

  • Sander Dieleman 曾参与开发 AlphaGo 和 Wavenet;

  • Felix Hill 是自然语言理解多任务基准 GLUE 的作者之一;

  • Alex Graves 博士阶段师从 Jürgen Schmidhuber,之后在多伦多大学做博后,与图灵奖得主 Geoffrey Hinton 进行合作;

  • Jeff Donahue 博士毕业于加州大学伯克利分校,曾与贾扬清一起开发深度学习框架 Caffe;

  • ……

网友:强化学习的课程也要赶紧安排

这 6 节深度学习课程视频一经发布,就得到了学习者的积极响应。网友纷纷表示这门课程太棒了,并高度肯定了 DeepMind 以及第一节授课人 Thore Graepel 的授课方式。

学习者表示,这门课程的图表和数据做得太棒了!

更有网友期待看到强化学习领域的资源。

目前,这一系列课程还在陆续放出,需要的同学可以前去 follow。以下是第一节课的视频,可以帮助你了解课程概况:


课程链接:https://www.youtube.com/watch?v=7R52wiUgxZI&list=PLqYmG7hTraZCDxZ44o4p3N5Anz3lLRVZF 

入门深度学习深度学习课程UCLDeepMind
相关数据
DeepMind机构

DeepMind是一家英国的人工智能公司。公司创建于2010年,最初名称是DeepMind科技(DeepMind Technologies Limited),在2014年被谷歌收购。在2010年由杰米斯·哈萨比斯,谢恩·列格和穆斯塔法·苏莱曼成立创业公司。继AlphaGo之后,Google DeepMind首席执行官杰米斯·哈萨比斯表示将研究用人工智能与人类玩其他游戏,例如即时战略游戏《星际争霸II》(StarCraft II)。深度AI如果能直接使用在其他各种不同领域,除了未来能玩不同的游戏外,例如自动驾驶、投资顾问、音乐评论、甚至司法判决等等目前需要人脑才能处理的工作,基本上也可以直接使用相同的神经网上去学而习得与人类相同的思考力。

https://deepmind.com/
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

深度强化学习技术

强化学习(Reinforcement Learning)是主体(agent)通过与周围环境的交互来进行学习。强化学习主体(RL agent)每采取一次动作(action)就会得到一个相应的数值奖励(numerical reward),这个奖励表示此次动作的好坏。通过与环境的交互,综合考虑过去的经验(exploitation)和未知的探索(exploration),强化学习主体通过试错的方式(trial and error)学会如何采取下一步的动作,而无需人类显性地告诉它该采取哪个动作。强化学习主体的目标是学习通过执行一系列的动作来最大化累积的奖励(accumulated reward)。 一般来说,真实世界中的强化学习问题包括巨大的状态空间(state spaces)和动作空间(action spaces),传统的强化学习方法会受限于维数灾难(curse of dimensionality)。借助于深度学习中的神经网络,强化学习主体可以直接从原始输入数据(如游戏图像)中提取和学习特征知识,然后根据提取出的特征信息再利用传统的强化学习算法(如TD Learning,SARSA,Q-Learnin)学习控制策略(如游戏策略),而无需人工提取或启发式学习特征。这种结合了深度学习的强化学习方法称为深度强化学习。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

推荐文章
暂无评论
暂无评论~