O'Reilly 报告:机器智能的未来

几十年来,机器学习已经成为既激发热情又招致怀疑的领悟。建造出能思考、会推理机器的希望吸引着人类的想象力,而且新近也吸引着公司预算。上世纪五十年代初,Marvin Minksy, John McCarthy和这一领域其他重量级先锋为今天理论和实践上的突破做好了准备。窥探驱动这些特殊机器背后的代码和方程,我们发现自己正面对这样一些问题:何为思考和知识本质。获取成就(所涉)数学、技术上的精湛技巧唤起了我们人之为人的特质:从直觉、注意力到规划和记忆,所有一切(特质)。随着该领域进步加速,这些问题只会愈发紧迫。 

迈入2016年,看似连续的进展让机器学习的世界热闹非凡。谷歌向公众发布了机器学习库TensorFlow。不久之后,微软也开放了它的深度学习框架。近期,硅谷大牛们也承诺向OpenAI投入十亿美元,谷歌也开发出(棋艺)超过欧洲围棋冠军的软件。然而,这些头条和成就仅仅只是故事的一部分。余下部分,我们应该诉诸实践者们本人。 在接下来的访谈中,我们打算让读者看到推动这些进步的想法和挑战,第一篇是Anima Anandkumar 的讨论, 他探讨了tensors以及它们在高维空间以及非凸优化这些机器学习问题上的运用。接下来,Yoshua Bengio 研究了NLP、深度学习以及无监督学习和推理的交叉领域。Brendan Frey谈到了深度学习在基因医疗方面的应用,应用中使用了忠实编码生物学理论的模型。Risto Miikkulainen 从另一个与演化算法及其惊人创造性相关例子中领会生物学。从生物转到机械,Ben Recht 通过一种新奇的机器智能和控制理论的综合,研究了鲁棒性(robustness)的概念。基于同样的脉络,Daniela Rus勾勒出机器人简史,作为自动驾驶汽车和其他自动代理研究的序曲。接下来,Gurjeet Singh 将机器学习的拓扑学带入生活。Ilya Sutskever叙述了无监督学习之谜以及注意模型的前景。Oriol Vinyals 转向对比了深度学习和Sequence-to-Sequence模型,并设想了会生成它们自己算法的计算机。Reza Zadeh收官,他反思了机器学习作为一个研究领域的历史和演化历程,以及Apache Spark 在其未来将会发挥的作用。 

这份报告仅能涵盖这么多内容,注意这一点很重要。仅有十篇访谈,远不够详尽:实际上,就每一篇访谈而言,都有几十位其他理论和实践人员通过他们的努力和奉献成功推动该领域发展。这份报告,尽管简短,但是借由这些顶尖人物的双眼,我们得以一睹这一精彩领域。

1、Anima Anandkumar:更高维度的学习(Anima Anandkumar: Learning in Higher Dimensions)

Anima Anandkumar是加州大学欧文分校电气工程与计算机科学(Electrical Engineering and Computer Sciences)学科负责人。她的研究主管要关注多维几率隐含变量的学习模型以及张量算法的设计与分析。核心要点

  • 现代机器学习包含大规模数据和大量变量,引发一个高维度问题。

  • Tensor的方法在学习高维度复杂问题方面非常有效,也可以被运用到其他多个领域,比如社交网络分析、文档归类、基因组学以及对大脑神经行为的理解。

  • 随着研究人员不断攻克这些复杂、高维问题,他们也会需要在非凸优化方面依赖新奇技术,在许多情况下,凸优化技术捉襟见肘。

2、Yoshua Bengio:会做梦的机器(Yoshua Bengio: Machines That Dream)

Yoshua Bengio是Montreal大学计算机科学教授,也是该校机器学习实验室负责人,数据研究算法领域的CRC。他的研究目标是理解产生「智能」的学习规则。核心要点

  • 自然语言处理自创立以来走过了一段漫长的道路,期间的技术包括向量表达(vector representation)和可定制的深度神经网络,这个领域距离真正理解语言的目标越来越近。

  • 深度学习所支持的语言模型与乔姆斯基学派分道扬镳,采用了80年代流行起来的连接主义的思维方式。

  • 在神经科学和机器学习的关系中,每个领域的进步都为对方领域带来新的光芒,灵感也是双向流淌的。

  • 无监督学习仍旧是探索真实人工智能的待解关键谜题之一。我们能在最不可能的地方找到衡量迈向这一目标进步的方法,就在机器之梦里。

扩展阅读:

3、Brendan Frey:当深度学习遇到基因组生物学(Brendan Frey: Deep Learning Meets Genome Biology)

Brendan Frey是Deep Genomics的联合创始人,多伦多大学教授以及多伦多大学机器学习小组的联合创始人,加拿大先进研究研究所( Canadian Institute for Advanced Research)神经计算项目高级研究员,加拿大皇家学会研究员。他的工作专注于采用机器学习来理解基因组和在基因组医学中实现新的可能。核心要点

  • 深度学习在基因组医学中的应用有一个良好的应用,它可能影响诊断、重症监护、制药以及保险。

  • 「基因影响-环境影响分立(genotype-phenotype divide)」,即我们无法将基因学与疾病环境影响连接起来,这正在阻止基因组学推进医学潜能。

  • 深度学习可以为基因影响与环境影响的分立建立桥梁,它能把呈几何增长的数据整合起来,解释和基因作用和环境作用相关的非常多层的复杂生物过程。

  • 深度学习已经成功应用于诸如图像、文本和语音识别等人类擅长的领域。然而,人类的思维本质上并不是设计用来理解基因组的。这一差距需要将「超人智能」用于解决问题。

  • 在这一领域的努力必须考虑潜在生物学机制;过于简单 ,「黑盒方法」将仅驱动有限价值。

  • 在这一研究空间的工作必须考虑底层的生物机制;(过去那种)过于简单的,「黒匣式」的途径只能推动有限的价值。

扩展阅读:

4、Risto Miikkulainen: 演化计算领域的垫脚石和意想不到的解决方案(Risto Miikkulainen: Stepping Stones and Unexpected Solutions in Evolutionary Computing)

Risto Miikkulainen 是美国德克赛斯州大学奥斯丁分校的计算科学和神经科学教授,也是 Sentient Technologies 成员。Risto的工作重点是生物启发式计算,例如神经网络和遗传算法。核心要点

  • 进化计算是一种强化学习的形式,应用于优化适应度函数。

  • 它的应用涵盖机器人、软件代理、设计和电子商务。

  • 它有助于发现真正新奇的解决方案。

5、Benjamin Recht:机器学习应变野外的能力(Benjamin Recht: Machine Learning in the Wild)

Benjamin Recht 是加州大学伯克利分校的电子工程和计算机科学以及统计系副教授。他的研究关注针对大规模数据分析、统计信号处理和机器学习的可扩展计算工具——探索凸优化、数学统计和随机算法的交叉领域。核心要点

  • 机器学习实际上与扎根于1950年代的控制理论有关。

  • 一般来说,机器学习作出预测的方法看上去是通过训练海量数据来预测平均情况。另一方面,控制论看上去是对现实建立一个物理模型以预测最糟情况(这就是飞机应对湍流的方法)。

  • 结合控制原则和强化学习,将促进机器学习应用在某些领域的应用,在这些领域最糟的情况是生死问题(比如无人驾驶汽车)。

6、Daniela Rus: 作为驾驶伙伴的自动汽车(Daniela Rus: The Autonomous Car As a Driving Partner)

Daniela Rus 是电子工程和计算机科学教授,还是MIT计算机科学和人工智能实验室(CSAIL)的主任。Rus是第一位担当CSAIL和它的前身——人工智能实验室和计算机科学实验室——主任的女性。核心要点

  • 机器人这一领域可以追溯远至古希腊,目前正经历爆炸式增长时期,这得归功于计算能力的提高、更好的传感器和新材料。

  • 生产越来越多自动化机器需要新的计算方法来大规模地设计和制造功能性机器。

  • MIT-CSAIL与丰田汽车公司建立伙伴关系,已经着手建造将永远不会引发碰撞事故的汽车。这个项目在MIT和新加坡国立大学的合作下完成了,证实了无人驾驶车辆在低复杂度的环境中以低速行驶是安全的。

7、Gurjeet Singh: 使用拓扑学揭示你数据的形态(Gurjeet Singh: Using Topology to Uncover the Shape of Your Data)

Gurjeet Singh 是Ayasdi的CEO和联合创始人,这家公司充分利用机器学习软件自动化和加速数据洞见的发现。也是顶级数学和计算机科学期刊多篇文章作者,并获得了无数专利,他已经为拓扑数据分析开发出关键数学以及机器学习算法。核心要点

  • 拓扑学领域研究的是通过连续变形,一个空间到另一个空间的映射。

  • 机器学习算法产生了从输入空间到输出空间的函数映射,运用拓扑学的形式体系让它们得以理解。

  • 拓扑学方法允许我们研究数据集而不需要事先预设一个形态,还允许我们结合不同的机器学习技术并同时持续保证数据的根本形态。

8、Ilya Sutskever: 无监督学习,保留机制(Attention)和其他谜团(Ilya Sutskever: Unsupervised Learning, Attention, and Other Mysteries)

Ilya Sutskever 是谷歌的研究员,发表过很多神经网络及相关主题的文章。Sutskever是DNNresearch联合创始人,被誉为加拿大谷歌第一人(Canada's first Google Fellow)。核心要点

  • 尽管我们的神经元相对来说是低速的,既然人类能迅速解决感知问题,那么适当深度、大型神经网络已经能让机器以类似方式获得成功。

  • 无监督学习仍然是个迷,但是,全面理解这个领域很可能从根本上变革机器学习领域。

  • 对于强大的学习算法来说,这种算法需要更少的数据来成功解决更难的问题,注意模型是一个有前途的方向。

扩展阅读:

9、Oriol Vinyals:Sequence-to-Sequence机器学习(Oriol Vinyals: Sequence-to-Sequence Machine Learning)

Oriol Vinyals是谷歌的研究科学家,之前在谷歌大脑(Google Brain)团队工作,后来加入DeepMind团队。他拥有加州伯克利大学电力工程和计算机服务(EECS,Electrical Engineering and Computer Service)博士学位以及加州大学圣迭戈分校的硕士学位。核心要点

  • 采用神经网络的序列测序学习在诸如机器翻译领域已经有了最先进的表现。

  • 虽然很强大,但是这个方法受到诸如计算等因素的限制。LSTMs对推动这一领域的发展做了很多贡献。

  • 除了图像和文本的理解,深度学习模型可以学会编码许多著名算法挑战的解决方案,包括Traveling Salesman Problem(TSP)。

10、Reza Zadeh:论机器学习的演化(Reza Zadeh: On the Evolution of Machine Learning)

Reza Zadeh是斯坦福大学计算和数学工程研究所的顾问教授和Databricks技术顾问。他的工作专注于机器学习理论和应用、分布式计算和离散应用数学。核心要点

  • 神经网络已经复苏,并且在机器学习新方法中扮演越来越重要的角色。

  • 借由一种充分利用已建立算法的监督解决方案,我们正在取得最伟大的成功。

  • Spark是一个特别适合的分布式机器学习环境

扩展阅读:

作者简介:早期风投基金Amplify Partners的投资人。作者涉足科技领域的职业生涯始于Chartio的联合创始人和CEO,这是一家基于云的数据可视化和分析的先进供应商。接下来,作者加入Patients Know Best创建团队。

入门
暂无评论
暂无评论~
返回顶部