李亚洲、李泽南参与

震天的战鼓已经敲响,你在人工智能中处于哪个阵营?

每个人都知道人工智能是未来科技的方向,但每个人对于学 AI 都持有不同的态度。近日,Twitter 上有一张图火了,引来 Yann LeCun 等大牛、CSAIL at MIT 等账号争相转发。这张图把深度学习学者分为了四种人,描述了四种类型学习者的特征。机器之心读者们可以对号入座,看自己是 Cann YeLun 还是 LeiLei Fi。

No.1 Riraj Saval

Neta 著名 Youtube 机器学习博主 Siraj Raval。你可能不太了解他,此人致力于「解决 AI,并用它来造福人类」,也被称为「计算机科学的 Bill Nye」、「代码界的 Kanye」、「神经网络的碧昂丝」、「学习的博尔特」、「机器学习的耶稣」……

特点:

  • 「哈哈,做深度学习你其实不需要数学」

  • Siraj 科学(sirajology)的粉丝

  • 不理解就直接深入 Github 深度学习模型

  • 应用比理论更重要

  • 有可衍生出价值数十亿美元的创业公司新的大想法

  • python 制胜

No.2 Cann YeLun

Neta 深度学习先驱,Facebook 首席人工智能科学家、纽约大学教授 Yann LeCun。LeCun 本人还在 Twitter 上转发了这张图:The four kinds of (young) deep learners. 你们都太年轻……

  • 目前在学界读硕士/博士

  • 下周又要发表一篇关于 GAN 的论文

  • 渴望到谷歌大脑、OpenAI、FAIR、DeepMind 等业界实验室工作

  • 虽然喜欢 PyTorch,但被强迫会使用 TensorFlow

  • 认为 CNN 是革命性的创造

  • 讨厌做数据清洁

  • 在团队中把 GPU 占为己有

No.3 Nandrew Ang

Neta 深度学习先驱,斯坦福大学教授,前百度首席科学家吴恩达(Andrew Ng)。吴恩达致力于人工智能的教育,他还是 Deeplearning.ai、Landing.ai 和 AI Fund 三家公司的创始人。

  • 鼓吹深度学习是新电力

  • 炫耀自己的英伟达 GTX 1080TI

  • 空闲时间想要建立自动驾驶汽车

  • 学习了吴恩达所有的课程

  • 因巨额收入离开学界转入产业界

  • 有 GCP、IBM Watson、Azure、AWS、flyodhub、paperspace 账号

No.4 Lei Lei Fi

Neta 斯坦福大学教授,ImageNet 发起者,谷歌云机器学习与人工智能首席科学家李飞飞(Fei-Fei Li),人工智能领域最著名的女性科学家。

  • 喜欢 R 但团队大部分人用 python

  • 拥有计算机科学/统计/数学/AI 方向的博士学位

  • 能在论文中手动做反向传播,并在 Matlab 上写成代码

  • 认为忽视深度学习数学的人都不是真正的数据科学家

  • 一年参加 99 场会议

  • 论文被 NIPS 接收

当然,四大天王通常有五个(误)。热心网友还指出了其他几种类型的存在。其中包括 Mary Garcus(Neta 纽约大学教授 Gary Marcus):此类人代指一部分在读博士,其认为反向传播已经日薄西山,而深度学习已经碰壁。

有人又说,所以,如果把人工智能人群按照 DND(龙与地下城)坐标系分为九类的话:

在略微思考一番后,小编现在自认为目前还处在 Riraj Saval 阶段。

不过我们至少比某位前州长更进一步了:

入门观点
1
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

IBM 沃森技术

沃森是能够使用自然语言来回答问题的人工智能系统,由IBM公司的首席研究员David Ferrucci所领导的DeepQA计划小组开发并以该公司创始人托马斯·J·沃森的名字命名。

推荐文章
暂无评论
暂无评论~