机器学习正朝着利用新硬件(比如 GPU和大型商业集群)的方向演进。大学和产业研究人员已经在使用这些新的计算平台多维扩展机器学习。在 8 月 2 日 斯坦福大学和 Matroid 共同举办的第一届 Scaled 机器学习大会(ScaledML 2016)上, Jeff Dean(谷歌)、 陆奇(微软)、Ilya Sutskever(Open AI) 等机器学习领域的重量级人物做了演讲。Jeff Dean 做了名为《使用 TensorFlow 的大规模深度学习》的演讲报告。这次报告和今年 3 月份李世石与 AlphaGo「人机大战」期间 Jeff Dean 所做的《用于智能计算机系统的大规模深度学习》的报告有一些共同之处(详情参阅机器之心之前的解读重磅 | 谷歌大神Jeff Dean:大规模深度学习最新进展)。但是,这份新的演讲报告也仍有一些值得关注的新内容,尤其是在 TensorFlow 和谷歌 5 月份推出的张量处理单元(TPU)方面。陆奇在《微软的机器学习》演讲中第一次深入介绍了微软在FPGA方面的工作。来自 Open AI 的 Ilya Sutskever 介绍了该机构最新研究。详情可参阅 深度|OpenAI 首批研究成果聚焦无监督学习,生成模型如何高效的理解世界(附论文)。
机器之心整理了Jeff Dean、 陆奇 和 Ilya Sutskever 三人的演示文档内容:请查阅微信文章《重磅|2016 ScaledML会议演讲合辑:谷歌Jeff Dean讲解TensorFlow,微软陆奇解读FPGA》
ScaledML 2016 旨在让在各种不同计算平台上运行机器学习算法的研究人员汇聚一堂,彼此交流,并鼓励算法设计人员互相帮助,在平台之间扩展、移植、交流不同想法。
这次会议演讲者包括:陆奇(微软)、Jeff Dean(谷歌)、Ilya Sutskever(OpenAI)、Reza Zadeh(Stanford 和 Matroid)、John Canny (伯克利、谷歌) 、Lise Getoor(UCSC)、Ted Dunning(MapR)、Leah McGuire(Salesforce)、Xavier Amatriain(Quora)以及 Martin Wicke(谷歌)。演讲者演讲主题一览:
下面是他们各自的演讲主题(点击相关链接可查阅他们的演示文档):
Xavier Amatriain:Quora 的机器学习:超越深度学习
John Canny:用于机器学习的 GPU 加速
Jeff Dean:使用 TensorFlow 的大规模深度学习
Leah McGuire:Salesforce 的扩展深度学习
Ted Dunning:深度学习很赞
Lise Getoor:用于图谱的可扩展机器学习
Reza Zadeh:Matroid 的扩展过的机器学习
陆奇:微软的机器学习
Ilya Sutskever:生成式建模的最新进展