苹果开发者大会WWDC 2017:首次全面展示苹果的人工智能实力

当地时间 6 月 5 日,苹果开发者年度盛会 WWDC 2017 在美国加州举行。在这个舞台上,我们看到了苹果软件、硬件有哪些新的升级、推新。但在 Keynote 中,我们看到了苹果不同于谷歌、Facebook 的人工智能战略。

2016 年 8 月份,Backchannel 的一篇文章正式揭开了苹果公司人工智能研究的面纱。虽然苹果是第一家将智能助理整合进其操作系统的主流公司,但并不如谷歌、Facebook 这样大声的宣告人工智能,也没有专门的组织和团队进行人工智能的研究。

在 Backchannel 的报道中,软件主管兼高级副总裁 Craig Federighi 曾表示,「在苹果,我们并没有一个单独集中负责机器学习技术的组织。」

不久之后(2016 年 10 月份)CMU 机器学习教授 Russ Salakhutdinov 在自己 Twitter 上宣布任职苹果人工智能研究负责人的消息。之前的人工智能研究一直处于隐藏模式的苹果,真的开始了与谷歌、Facebook 这样的其他巨头之间的竞争。

在 2016 年底的 NIPS 学术会议上,Russ Salakhutdinov 打破了苹果一贯的沉默,说明了苹果在人工智能发展商的具体目标,该公司还给出了一些细节来说明自己相对于竞争者的优势,让人们了解到了一些苹果的研究进展。

最终,这一切成果,都在今年的 WWDC 开发者大会上有了完整的展现。这次大会围绕软、硬件,介绍了苹果融合了机器学习与人工智能的产品。在软件方面,以 Siri 为核心,在各种官方 App 里面用机器学习技术进行优化;硬件方面,首当其冲的就是提升硬件配置,终于 Mac 不再是渣配置的象征,Apple 也拿出了强大的硬件设备(iMac Pro)进入市场。

Metal 2 与 Core ML


计算力


我们知道人工智能发展一大核心是计算力。在 WWDC 2017 上,苹果宣布的 Metal2 与新硬件平台能提供机器学习所需的强大计算力。

首先,苹果宣布了最新的 Metal 2 图 API,介绍了大量 High Sierra MacOS 操作系统如何处理图的大量改变。其中有趣的一点是它对外部图解决方案的支持。苹果开放了 Metal 2 外部图开发者 Kit 的指令,包括允许外部 GPU 附件的 Thunderbolt 3,以及一个 AMD Radeon RX 580 图显。意味着开发者能够尝试各种应用外部 GPU 的最好方式,在计算力上这会提供极大的支持。

Federighi 介绍说,Metal 2 不只是用于图,也可以用来进行机器学习。它能加速所有类型深度学习算法的 Metal 性能着色器。



在这部分演示中,苹果着重强调的是在 GPU 性能方面的提升,Apple 为展示 GPU 性能的提升,在现场演示了使用 iMac 进行 VR 处理。接着 Apple 提到了即将在今年年末发布的工作站级别的 iMac Pro 一体机,将会具备超强的性能,核心为了支持 Machine Learning 和 VR。


Core ML



前面提到,面向开发者的 Metal 2 也能用于机器学习。后面的演讲中,Craig Federighi 就宣布了苹果一系列新的面向开发者的机器学习 API,包括面部识别的视觉 API、自然语言处理 API,这些 API 集成了苹果所谓的 Core ML 框架。


Core ML 的特性:支持深度神经网络、循环神经网络、卷积神经网络、支持向量机、树集成、线性模型


Federighi 介绍说,Core ML 的核心是加速在 iPhone、iPad、Apple Watch 上的人工智能任务,包括面部识别、文本分析等。他表示,Core ML 在 iPhone 上每分钟图像识别的速度是谷歌 Pixel 上的 6 倍。

Siri Intelligence 与智能音箱 HomePod

谷歌的 Google Assistant、亚马逊的 Alexa、微软的 Cortana、苹果的 Siri,都是业界极为关注的语音助手。在此次的开发者大会上,Siri 有了一系列的升级,这些升级集成了大会上所说的 Siri Intelligence。同时,苹果也发布了配备 Siri 助手的智能音箱 HomePod。

值得一提的是,2014 年苹果将 Siri 的语音识别移植到了基于神经网络的系统上,使用深度学习对它进行了极大的增强。这里面使用到了一些早期技术,包括隐马尔可夫模型。但从这个时间节点开始 Siri 使用了机器学习技术,包括 DNN(深度神经网络),卷积神经网络,长短期记忆单位,封闭复发性单位(gated recurrent units),以及 n-grams 等。

经过三年的发展,Siri Intelligence 结合机器学习有了最新的进展:

  • Siri Voice 使用深度学习进行语音合成(男声、女声)
  • Siri 将具备 Knowledge 、 Translate Beta 功能
  • Siri 将具备理解自然语言的功能(对语境更为敏感)



Siri 翻译功能展示

之前业内一直在传苹果在 WWDC 大会上有可能推出重磅产品 Siri 音箱。认为这款产品将直接与亚马逊的 Echo、Google 的 Home 展开竞争。彭博社的报道也称,苹果正在研发的 Siri 音箱将在不久的将来发售。

在大会上,苹果正式宣布了智能音箱 HomePod。


HomePod 使用 Siri 助手,能够控制新闻、文本、短信、天气等。但就苹果的态度来看,HomePod 是要彻底改造(reinvent)家庭音乐,所以它的核心还是音乐,Siri 的功能辅助成分要大很多。

融入产品的人工智能



Safari 的智能追踪防护


不像是 AI-First 的谷歌所举办的开发者大会,「机器学习」一词贯穿始终,WWDC 2017 上「机器学习」完全是伴随着苹果的产品和应用所出现的:

  • Safari 使用机器学习识别网页追踪者,增强隐私保护;
  • 图像 App 升级,特别是 Memories 功能使用机器学习识别体育活动、婚礼等图;
  • Apple Store 使用深度学习辨别骗保行为;
  • 苹果 News 应用,采用机器学习挑选出你可能感兴趣的新闻源;
  • Apple Watch 利用机器学习检测用户在锻炼状态还是仅仅在闲逛;
  • Apple Pencil 触控笔的「防手掌误触」机器学习模式。

总体看来,苹果的战略不是说帮助开发者研发新技术,而是帮助他们将最新的深度学习技术应用到苹果整个生态系统中。

总结 

整场信息量巨大的 Keynote 看下来,给我们的感觉是苹果在 AI 领域的核心任务不是做研究,而是将现有的 AI 技术优化、应用到苹果现有的体系中。在最后的回顾中,Tim Cook 甚至都没有怎么提到机器学习,由此可以看出苹果对待 AI 技术的态度。

在这场 AI 争夺战中,比较高调的 Google、Facebook,以及在 AI 领域的沉浸多年的微软都比较看重人工智能的研究。而对苹果而言,在即将到来的 AI 时代,他们仿佛要做的:一是用好别人研发出的好技术(提到了在 iphone7 上跑 inception v3)提升产品体验;另一个则是给开发者提供好开发平台(增强的硬件)。

就像苹果全球市场高级副总裁 Phil Schiller 在 Backchannel 的采访中所说的那样,「典型的苹果用户,将在不知不觉中得到机器学习带来的用户体验的提升,并因此更加爱上苹果产品。最让人兴奋的是,你甚至都感觉不到它的存在,直到有一天你突然意识到,并发出由衷的感叹:这一切是怎么发生的?」

产业
暂无评论
暂无评论~
返回顶部