by 超神经

Apple还能不能赶上AI这波浪潮?

现在开大会,不说点儿 AI 就 out 了,曾有网友开玩笑说,今年 Google I/O 的发布会就是:Google 系列产品+ AI。 Apple 也是一样,这几年在硬件上没有什么重大创新,也是慢慢在讲讲自己跟 AI 的故事。

在果粉翘首以待的苹果演唱会发布会上,苹果一口气推出了三款新的 iPhone 和 Apple watch 系列 4 。

虽说硬件上的改观乏善可陈,但最起码实现了很多人梦寐以求的双卡双待,弱弱的问上一句,你还有肾可以卖吗?

Apple 还能不能赶上 AI 这波浪潮?

相比之下,这次发布会最大的看点,要数 Apple 在 AI 上的进展。

屠龙榜首的 AI 加持芯片

发布会用了很长一段时间去介绍 A12 仿生芯片。这款被称为史上最强大的芯片,为 AI 应用提供了足够的算力。

Apple 还能不能赶上 AI 这波浪潮?
A12 仿生芯片的效果图

A12 是苹果发布的第二款仿生芯片, 上一代芯片 A11可以说开启了一个潮流。可怕的是,A12 在性能上又有了巨大提升,性能比前代 A11 高了一半左右。

这块芯片主要部分是 6核的 CPU、4核的 GPU 和一个八核的神经网络引擎 Neural Engine。

神经网络引擎的强大在于处理矩阵乘法和浮点处理的能力。据称它每秒能够进行 5 万亿次运算,远超过 A11。此外神经网络引擎将开放给 Core ML ,使用 A12 芯片的机器学习能力相比起之前能够提升 9 倍,同时能耗则降低到原来的十分之一。

应用了 A12 芯片的新 iPhone,展示了很多黑科技的操作,比如拍照 AI 应用、运动测量、投篮计分、运动员姿态估计、运动轨迹记录,从这些场景中能窥见它强大性能的一些端倪。

基于这款芯片,iPhone 可以处理更多炫酷的任务。那 iPhone 是如何实现那些 AI 功能的呢?

这就要说到苹果在 2017 年推出的机器学习框架 Core ML 。

打通任督二脉的 Core ML

Core ML 是一款机器学习的框架,建立在 Accelerate、BNNS 和 Metal Performance Shaders 等语言之上。它支持诸多 AI 技术,比如基于计算视觉的图像分析、自然语言处理(如 NSLinguisticTagger 类)和用于评估学习决策树的 GameplayKit 框架。

Apple 还能不能赶上 AI 这波浪潮?
Core ML 的作用结构图

Apple 是去年 5 月份在 iOS 11 的发布会上首次推出 Core ML,它可以将机器学习模型集成到手机 App 上,在提高 App 运行稳定性的同时,通过降低 RAM 和电池消耗,让手机更好的运行 AI 应用。

Apple 还能不能赶上 AI 这波浪潮?

Core ML 的作用是将 AI 模型应用到手机端

将逐渐兴起的 AI 技术应用在手机端,是个难以克服的问题。但目前,Core ML 已经被广泛应用于图像识别、语言翻译、对象检测等 App 开发领域。可以说它是 Apple 公司将机器学习技术融入到手机中的关键之处。

Core ML 投入应用后,Apple 公司又陆续推出了 Core ML 2 和 GPU 加速工具 Create ML(用于在苹果电脑上训练 AI 模型)。

Apple 还能不能赶上 AI 这波浪潮?
Core ML 2 发布现场

Core ML 2 是 Core ML 的升级版,运行速度提升了 30%,支持 16 位浮点数,且附带模型转换器。这个神奇的转换器,可以将 Core ML 与其他机器学习框架等配合使用。目前支持的有 Keras、scikit-learn、XGBoost、LibSVM、Google 的 TensorFlow、Facebook 的 Caffe 等。这大大发挥了它们的威力。

说了这么多,你是不是也不太懂。我们从 BeCasso 这款图像处理软件,看看 Core ML 是怎么让 AI 应用在 iPhone 上运行。

给 AI 画家提供加成 Buff

在今年的 WWDC 大会上,Digital Masterpieces 公司展示了一款可实现图像风格迁移的 App—— BeCasso(毕加索),它可以将实景图转化为一张仿古风格的油画。而它在 IPhone 上的运行就要归功于仿生芯片和 Core ML。

Apple 还能不能赶上 AI 这波浪潮?

+

Apple 还能不能赶上 AI 这波浪潮?

=

Apple 还能不能赶上 AI 这波浪潮?
BeCasso 图像风格迁移示意

BeCasso 通过深度神经网络实现风格迁移,但在迁移过程需要消耗大量的 RAM 和算力,这对存储器和处理器要求很高。在条件不成熟时, BeCasso 只能对低像素图片的做风格迁移。

而 Core ML 框架给了它在手机端运行的机会。Core 让 BeCasso 在运行的同时,进行内存优化,释放大量可用空间,而仿生芯片则可以为其提供充足的算力。BeCasso 能在一秒种内对一张超清大图完成风格迁移。不难推测,在新款的 iPhone 估计表现更加优异。

Apple 剑指 AI

除了 AI 芯片和机器学习框架 Core ML , Apple 公司近年来在 AI 发展上,下了不少的功夫。

Siri 语音助手从被诟病到如今被称为进步最大的语音助手, 尤其是 Apple 在 17 年收购 Workflow 后,又和 Siri 进行了整合,推出了强大的的 Siri Shortcuts 应用。实现了语音打开第三方 APP,智能化程度和可操作性都让人惊叹。

在今年 2 月份,姗姗来迟的智能音响 HomePod,搭载了空间监测技术和 Siri 助理,它的“空间意识”( Spatial Awareness ),可以智能检测空间,从而调整音频质量。

Apple 还能不能赶上 AI 这波浪潮?
HomePod 这类智能音响已经成为大厂布局 AI 的标配

面部识别( Face ID )已不是什么新鲜事物, 它安全性好,快捷易用。Apple 凭借的强大摄像系统、安全隔区以及神经网络引擎等精密技术,为解锁、登录和支付带来了新的方式。

此外,还有这次发布会上秀了一把的增强现实开发平台 ARkit。 它适用于 iPhone 和 iPad 平台,利用设备中的相机、CPU、GPU和运动传感器,借助iOS庞大的用户群,组建了世界上最大的 AR 平台。

Apple 还能不能赶上 AI 这波浪潮?
ARkit

当然,Apple 近几年来最大的动作还是在 AI 人才方面的储备。

比如在 4月份,就把Google AI 的前负责人 John Giannandrea 招募了过来。

随着 Apple 公司不断推出的 AI 技术, AI 模型在手机端的发展已显现了可喜的进展。接下来限制 AI 应用开发的将不再是算力和 RAM,而是缺乏更多的 AI 模型。在这方面,Apple 的云服务倒是大有可为,它可以帮助开发人员构建 AI 模型,并提供训练这些模型所需要的数据。

至于 Apple 还会带给我们什么,就只能等下次的发布会了。(接着吐槽?)

说回 Apple 这次的发布会,不管人们怎么吐槽,它依旧还是华丽丽的一场秀。即便华为的大佬在苹果的发布会后,发了一条意味深长的微博,说「 稳了」。

Apple 还能不能赶上 AI 这波浪潮?
华为大佬在 Apple 发布会后发的微博

但这也阻止不了广大群众的热情,毕竟还是要热热闹闹的看春晚,啊呸,看苹果发布会啊。

超神经HyperAI
超神经HyperAI

超神经是一个关注机器智能产业及相关产业链条的试验媒体,我们会尝试推动中文领域对机器智能的认知与普及,探讨机器智能的对人类族群的影响,并致力于在多个方向服务产业相关从业者。超神经由亥珀智能(北京)信息技术有限公司运营。

专栏二维码
产业增强现实面部识别图像处理Core MLNLP芯片机器学习
相关数据
增强现实技术

增强现实,是指透过摄影机影像的位置及角度精算并加上图像分析技术,让屏幕上的虚拟世界能够与现实世界场景进行结合与互动的技术。这种技术于1990年提出。随着随身电子产品运算能力的提升,增强现实的用途也越来越广。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

图像处理技术

图像处理是指对图像进行分析、加工和处理,使其满足视觉、心理或其他要求的技术。 图像处理是信号处理在图像领域上的一个应用。 目前大多数的图像均是以数字形式存储,因而图像处理很多情况下指数字图像处理。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

XGBoost技术

XGBoost是一个开源软件库,为C ++,Java,Python,R,和Julia提供了渐变增强框架。 它适用于Linux,Windows,MacOS。从项目描述来看,它旨在提供一个“可扩展,便携式和分布式的梯度提升(GBM,GBRT,GBDT)库”。 除了在一台机器上运行,它还支持分布式处理框架Apache Hadoop,Apache Spark和Apache Flink。 由于它是许多机器学习大赛中获胜团队的首选算法,因此它已经赢得了很多人的关注。

推荐文章
暂无评论
暂无评论~