在过去的十年中,大家都在宣告摩尔定律的死已成定局。英伟达创始人兼首席执行官黄仁勋也多次表示,摩尔定律已经失效。但事实真的如此吗?
尽管 CPU 性能提升的速度在放缓,但 CPU 与可替代处理器封装在一起的组合仍在以超过每年 100%的速度提升性能。而大规模的将运算力与数据和人工智能相结合的方式将完全改变设计硬件、编写软件以及将技术应用于企业的模式。在这个创新时代,廉价的处理能力将推动机器智能应用程序的爆炸式增长。在接下来的十年中,会出现哪些新的瓶颈呢?这对系统架构和行业转型又有什么意义呢?我们将在这篇文章中一一讨论。在过去的十年中,EE Times、麻省理工科技评论、CNET、SiliconANGLE,甚至行业协会都在宣告:摩尔定律的死已成定局。但若不再严格按照每两年使芯片密度增加一倍来定义摩尔定律呢?摩尔定律的结果是,性能将每 24 个月翻一番,即每年约 40%。现在,CPU 性能的提高速度每年下降到大约 30%,因此从技术上来讲,摩尔定律已经死了。但如图所示,垂直轴显示每秒的运算次数,水平轴显示三种处理器类型的时间。CPU,以太赫兹为单位(几乎看不到的蓝线);图形处理单元(GPU),以每秒数万亿浮点运算为单位(橙色);神经处理单元(NPU),以每秒万亿次运算为单位(爆炸的灰色区域)。从 Apple 公司 A9 到 A14 五纳米仿生系统芯片的 SoC 的发展进程,我们可以看到 「摩尔定律」 实际上正在大幅加速。前段时间,微软 CEO 萨蒂亚 · 纳德拉(Satya Nadella)宣称:我们已经到达中心化峰值(we have reached peak centralization)。如下图所示,处理能力正以前所未有的速度在加速,而且成本在下降。苹果公司的 A14 芯片成本为每颗芯片 $50。而 Arm 在 v9 公告中宣称新开发的可装入冰箱的芯片可以优化能效,每年节省 10%的功耗,且成本为 1 美元。只要花 1 美元,就可以从冰箱上节省 10%的电费。既然处理是廉价的。那么昂贵的瓶颈在哪里?网络和存储。这意味着无论数据出生在哪里,处理都将被推到边缘。存储和网络将变得越来越分散和去中心化。定制的芯片和处理能力遍布整个系统,并嵌入了 AI 来优化延迟、性能、带宽、安全性。最终,99% 的数据将留在边缘。以特斯拉为例,除了定期重新连接到云中以训练 AI 模型的部分数据,特斯拉汽车创造的绝大多数数据将永远不会回到云端,甚至不会持续存在。硬件公司如戴尔、惠普、Pure Storage 公司、NetApp 公司则最好开始考虑如何利用上图这条蓝线,即处理能力的爆炸式增长,来开始设计定制芯片。毕竟亚马逊 AWS、谷歌、微软、思科、和 IBM 这样做也是有原因的。正如云计算顾问 Sarbjeet Johal 所说:「这不是你祖父的半导体业务。」而软件工程师们最好开始着手利用所收集的所有数据和这种巨大的处理能力来探寻新的可能。处理能力的大幅度提高和廉价硅片将推动下一波人工智能、机器智能、机器学习和深度学习的浪潮。上图的右侧显示了 AI 的两个主要元素。当今 AI 的大部分活动都集中在构建和训练模型上,这主要发生在云中,但是人工智能推理将在未来几年带来最激动人心的创新。推理是指模型的部署:从传感器获取实时数据,在本地处理数据,应用已在云端开发的训练模型并进行实时微调。以特斯拉优化汽车转弯性能和安全性的算法为例,该模型具有摩擦、路况、轮胎角度、轮胎磨损、轮胎压力等数据的输入。模型构建者会持续测试,添加数据并迭代模型,直到可以进行部署为止。然后,来自该模型的智能进入推理引擎,该推理引擎是一种芯片运行软件,它可以进入汽车并从传感器获取数据,并实时对转向和制动等进行微调整。正如之前所说,特斯拉保留数据的时间非常短,因为数据量太大了。但是,如果需要将其发送回云并进一步训练模型,它可以选择存储某些数据。例如,如果一只动物在汽车平稳行进时突然出现在马路上,也许特斯拉会保留该数据快照,将其发送回云。之后,研究人员将该数据与其他数据结合起来,并进一步完善模型以提高安全性。这只是成千上万的 AI 推理用例的一个例子,该用例将在未来十年中进一步发展。当前,在防诈骗、广告技术、预测天气、预判价格、推荐引擎等方面,流行的建模训练依然很重要。但是下面的概念图显示了随着时间推移,训练和推理的花费百分比。该图还显示了,随着推理成为主流,当前受到关注的一些应用走向成熟的过程。很显然,在 「edge」 和「IoT」中,AI 推理的机会是巨大的。历史上,每个垂直行业都有自己的生产、供应、物流、销售、市场营销、服务的「栈」。而且,专业知识往往会留在该行业和公司中。大多数情况下,这些知识会停留在各自的泳道上。但是今天,我们看到了许多科技巨头进入其他行业的例子:亚马逊进入杂货店、媒体、医疗保健行业;苹果公司进入金融和电动汽车行业;特斯拉着眼于保险业…… 而这些科技巨头跨越传统行业界限的推动力就是数据。例如,随着时间的推移,汽车制造商将获得比保险公司更好的数据;使用区块链的 DeFi 或去中心化的金融平台将通过 AI 不断改进,并不断颠覆传统的支付系统。Enterprise Technology Research 的图表如下所示。这些数据在垂直轴上显示的是净得分或支出动量,水平轴是 ETR 数据集中的市场份额或普遍性。机器学习和 AI 很长时间以来都是支出速度的第一大领域,因此是四颗星,流程自动化机器人也越来越接近于 AI。而云则是当今所有机器学习活动发生的地方,也是另一个表现比较好的领域,尽管 AI 出于上述原因持续从云中移出。下图显示了该领域中一些受关注公司的首席信息官和信息技术买家的 AI/ML 相关支出,其中使用了相同的 Y/X 坐标:垂直方向上为支出速度,水平轴上为市场份额。微软、亚马逊 AWS、Google 等大型云计算厂商以最大的份额主导着 AI 和 ML。他们拥有工具和数据,其中许多建模训练正在云上进行,并将被推到具有集体处理能力的远程 AI 推理引擎中。去高峰集中化为创造价值并将 AI 应用于行业提供了巨大的机会;
Databricks Inc. 被视为 AI 的领导者,并以强劲的净得分和突出的市场份额脱颖而出;
尽管只有少量样本,SparkCognition Inc. 的净得分却非常高,位于左上角。该公司将机器学习应用于海量数据集;
DataRobot Inc. 执行自动 AI –它们在 Y 轴上超高;
Dataiku Inc. 帮助创建基于机器学习的应用程序;
C3.ai Inc. 是一家由 Tom Siebel 创建和运营的企业 AI 公司;
SAP SE、Salesforce.com Inc. 和 IBM Watson 处于 40%的水平;
Oracle 还具有其自治数据库的功能,而 Adobe Inc. 也显示了这一点。
关键是这些软件公司都将 AI 嵌入到他们的产品中。而那些试图不受到干扰的老牌公司可以从软件公司那里购买 AI。他们不必自己构建它。困难的部分是如何以及在何处应用 AI。简单的答案是:跟随数据。数据是新的开发工具包。在 x86 后时代,降低半导体生产成本的重要性一直被广泛讨论,但实际的性能改进已经被量化了。忘记「摩尔定律已死」吧, SoC 和即将推出的封装设计系统在十年间已经颠覆了最初的预估。谁又知道量子计算在性能提升方面将拥有什么样的未来呢。作为企业,要紧的不是构建 AI,重点应放在了解哪些数据可以带来竞争优势以及如何应用机器智能和 AI 来取胜。作为硬件厂商,设计自己的芯片并编写更多软件来利用 AI,在整个产品组合中嵌入自定义芯片和 AI,将更多的计算引入数据中。数据将大部分被保留在创建位置。系统、存储和网络堆栈都无关紧要。作为开发人员,弄清楚如何访问最相关的数据来编写应用程序,保护平台和创新,融入 AI 来改变世界吧。作为服务公司,用深厚的行业专业知识和技术知识来帮助不愿转型的公司生存和发展。而在确定 AI 应该走多远以及可以走多远之前,在不扼杀创新的基础上,监管和保护个人数据和隐私是十分必要的。原文链接:https://siliconangle.com/2021/04/10/new-era-innovation-moores-law-not-dead-ai-ready-explode/