高璇 王淑婷编译

AI寒冬论作者:通用人工智能仍是白日梦

AI 寒冬论作者旧调重弹,从硅谷的起落讲述 AI 寒冬原理,声称人工智能和区块链终将走入死胡同。同时还表示,如果继续陷进当前的陷阱,通用人工智能将仍然是一个白日梦。

20 世纪 80 年代的时候,硅谷是一个神奇的地方。这里发生了很多奇妙的事情,很多人在这里赚得盆满钵满。这些都与计算机的奇迹有关,它将改变很多东西。

计算机中有大量的应用程序摆在他们面前:彻底改革办公室工作,通过电脑游戏实现娱乐,改变沟通、购物和使用银行系统的方式。但那时计算机笨拙、缓慢且昂贵。除非计算机的速度或价格能再突破几个数量级,否则这些事情都无法实现。

但根据摩尔定律:从 20 世纪 70 年代起,集成电路上可容纳的晶体管数量约每 18 个月会增加一倍。如果这条定律成立,未来将十分美好。市场期待的这些应用程序将会被解锁,钱也会滚滚而来。

到了 20 世纪 90 年代中期,这个定律起作用了。计算机变得越来越快,软件变得越来越复杂,每年必须要升级才能跟上进度。新一代 CPU 的速度明显快于前代产品,新一代软件产品的速度却明显慢于前代产品,但性能更加强大。

总的来说,通过定期升级新硬件,软件在保持同样速度(或更快)工作,但提供的功能越来越多。大多数增益是由于时钟速度的提高(1990 年初时钟频率是 33Mhz,到 2000 年可达 1Ghz),因此没有必要重写任何程序来增加计算能力,在新的计算机中一切都运行得很快。

到 20 世纪 90 年代后期,一种新的处理器问世了:图形处理单元(GPU)。这些处理器与常规 CPU 不同。它们的芯片经过优化后执行 3D 图形渲染,芯片内部具有许多并行执行工作的小内核。最初它们作为附加的加速器出售,但很快就与常规显卡集成了(Nvidia - Riva TNT)。游戏画面更加优质,运行速度也快多了。硅谷的大亨们再次大赚一笔。

上世纪 90 年代末(左)和 21 世纪初(右)的计算机内部视图,大小和组件相似,但功能可能强大几千倍。

但到了 2000 年初,情况开始有所不同。互联网泡沫开始破裂,很多人损失了很多钱。此外,提高时钟速度的旧策略遇到了一些障碍:为了提高切换速度,电路的工作电压必须保持相对较高。

这会导致芯片升温。随后的速度增益会受到散热能力的限制。为了维持现状,CPU 制造商开始增加芯片中的执行内核数量。但是为了利用这种并行性,必须重写大部分软件。由新一代芯片带来的神话不再,发展速度变慢。

更糟糕的是,大部分事情不再需要更快的速度了。大部分软件堆栈已经成熟,应用程序已经固化,人们不再需要新的 CPU 或每年增加 2 倍的内存。如今大部分办公室工作都可以在 35 美元的 Raspberry Pi 上完成。

甚至游戏领域的游戏机也基本饱和。这些游戏机的售价甚至低于成本价格,初始投资可以通过游戏中的隐藏费用收回。而游戏计算机为大多数人提供了方便简洁的界面和令人满意的游戏体验。这对硅谷来讲是一个问题,硅谷发展的脚步开始放缓。

到 2000 年中期,另一项便利的发明出现了——智能手机。虽然 PC 市场明显放缓,但这类新产品发展迅速,从 2007 年至今推出的各种型号的 iPhone 将这个产业推向了顶峰。对于智能手机,关注点并不是 CPU 速度,而是功耗(电池寿命)和传感器/屏幕的质量。

在过去的 10 年中,相机和屏幕确实取得了很大的进步,但除了主要玩家苹果公司之外,硅谷大亨们并没有因此获利多少。相反,硅谷专注于软件方面的业务,如 Uber、Netflix 等利用新平台的服务公司。

但从一开始就很明显,智能手机的激情不会永远燃烧。事实上,到 2018 年,大多数人意识到他们不需要每两年购买一台价值 1000 美元的智能手机,而且就像之前的 PC 电脑一样,旧型号的智能手机对大多数应用来说都够用。这导致苹果股票在 2018 年秋季遭受重创,使其估值远低于 1 T 美元。

随着各种市场的枯竭,硅谷需要一些新的策略——能够与 90 年代 PC 革命匹敌的那种。它将使全新的应用成为可能,并对新产业造成冲击和破坏。这重新唤起了对芯片的需求——需要更上一层楼的计算能力。到 2012 年,两个绝佳机会浮现了:区块链人工智能(AI)。

区块链(最初在 2010 年被称为比特币),其想法是通过删除分类账(银行)来完全取代金融系统,并提供一种建立远程交易的自我认证手段。构建区块链的方式还需要大量的计算能力,以计算所谓的共识机制。这就是硅谷喜闻乐见的:一个高利润的全新应用领域,此外还需要大量新芯片来满足计算需求。

人工智能大约在 2012 年出现在硅谷的世界,当时一位不知名的加拿大人 Geoff Hinton 与他的学生一起在连接模型和神经网络的秘密空间中工作了 30 年,使用在 GPU 上实现的深度神经网络吊打了 ImageNet 目标分类竞赛的对手。

区块链一样,这项技术开启了一系列新应用,并且需要大量的新芯片。硅谷中的许多人很快就看到了它的潜在价值,资金开始源源流入其中。

自 90 年代最后一个神经网络寒冬以来,神经网络学者们很快注意到这个契机,不再在大学里「冬眠」。他们被邀请到硅谷参加一场聚会。

这种多层感知的新化身在短期内频频给众人带来惊喜:目标识别和分割、语音识别机器翻译变得越来越好。这些新功能很快被拥有海量数据的公司(如 Google 或 Facebook)所吸收。但这种兴奋很快就过去了。

科学家们是经过训练的专业人士,他们在各种提案中夸下海口,现在得到了更好的客户——风险资本家的青睐。这些风投家喜欢这些能彻底改变一切的美好故事,他们的废话检测能力比政府的资助机构低得多,只要在 NeurIPS 会议上发表一篇论文,就足以让他们放弃对科学家的各种必要调查。

此外,人工智能是一个空间,在这个空间中,通过添加一些想象力就可以轻松地将童话故事提升到一个新水平,与一些著名的科幻电影相比,这使得我们像是处在一个惊人的拐点。这是 AI 最终将会到达的点,在这个点上,AI 的提升将会超出我们的想象——奇点。这导致了「FOMO(害怕错过)」现象。曾经,即使是上面提到的那些政府资助机构也会成为 AI 承诺下的受害者,然后每次都会导致资金冻结,所以称为「AI 寒冬」。

但是硅谷买下了这个故事,并创造了有史以来最大的人工智能夏季盛宴。他们买下它时毫不犹豫。研发中心、非营利实验室和初创公司开始壮大,哪怕刚从大学毕业的深度学习科学家们没有任何行业经验。

初创公司蓬勃发展,承诺在机器人、自动驾驶汽车、无人驾驶飞机等领域创造各种各样的奇迹。所有问题的解决方案应该都是深度学习,在更多的数据和更大的 GPU 上训练更深的网络。它的工作方式很神奇,只需要更多的数据和更多的计算。于是盛宴开启。

到 2018 年,一些人开始意识到事情可能不会一直这样发展下去。真实世界中的目标识别或分割所得的收益开始迅速递减。虽然这些模型受到大量数据和强大机器的训练,但在性能方面只获得了有限的提高,在某些情况下甚至根本没有获得提升。科学家们做了自己最擅长的事:他们没有一味制造产品,而是撰写大量论文,还有一些人研究了新技术的局限性。

深度学习应该带来科技革命的所有方向中,只有一个方向不断带来好的结果——玩游戏。这是因为游戏可以在计算机上实现,并且产生的数据比在现实世界的应用程序中获得和标记的数据要多几个数量级。在许多情况下,仅仅训练玩游戏的智能体就可能花费数十万美元(仅仅是电力和计算硬件)。

但是同样的技巧在实际问题中并不适用,因为带标签的数据非常昂贵,而且经常甚至不能完全代表当前问题。在人工智能的狂热中,被逐渐遗忘的 Moravec 悖论,正变得比以往任何时候都更加明显。

尽管深度学习为广泛的计算机感知领域注入了新鲜血液,但它甚至没有触及人工智能的基本问题。即使在无法轻易获得大量标记数据的计算机感知应用中,基于(具有手工特征的)经典算法的精心设计和优化在现实应用中更容易开发和执行。

人工智能技术进步的试金石是自动驾驶汽车的发展。到 2016 年,硅谷的许多人都相信这项技术几乎准备就绪,并且将成为深度学习的关键支柱之一,毕竟汽车已经实现在没有干预的情况下行驶数英里。总部位于硅谷的汽车制造商特斯拉甚至开始将这一还未正式上线的功能出售。

到 2019 年初,这些做法基本开始放缓,因为出现几起关于销售 vaporwave 的诉讼。与此同时,对于许多自动驾驶汽车公司而言,2018 年是艰难的一年,因为相继出现了亚利桑那州 Uber AV 车祸致死案和特斯拉的几起自动驾驶致死事故。

至此,即使在硅谷,人们也开始意识到,让一辆完全自动驾驶的汽车像出租车一样到处行驶仍然需要很长的时间。很明显,汽车将继续内置电脑,从这个意义上说,硅谷已经赢了,但这与之前的梦想相去甚远。

2018 年,比特币的价格从近 2 万美元跌至 4 千美元以下,跌幅超过 80%。

在 2018 年,硅谷的另一个大赌注面临崩盘——区块链的最重要产品比特币价值下跌超过 80%。许多人损失了很多钱,人们对加密货币的热情一落千丈。

深度学习区块链都是非常有趣的技术,它们使以前不可能的事情变成了可能。Google 图片搜索比以前好多了。风格迁移技术也是非常酷的工具。机器翻译已经足以让你在外国找到路,但距离翻译诗歌还很远。但这些改进似乎都不足以获胜,无法证明硅谷的大赌注。它们看起来都不像 90 年代疯狂的计算机热潮一样,那么有利可图。

至于人工智能,这种炒作周期与之前并没有太大差别。我们让计算机做一些看似只有受过教育的成人才能做的事,但后来才意识到这些计算机甚至无法处理婴儿或动物都能解决的事情。如果我们继续陷入同样的陷阱,AI(通用人工智能)将仍然是一个白日梦。

英伟达(Nvidia)也是硅谷的一家公司,销售区块链和 AI 的相关产品。过去四年的股票走势反映了市场的高期望,也反应了市场正在经历的幻灭。

未来很难预测,但这两个赌注看起来都是死局,至少目前如此。也许就像谷歌和 Facebook 等互联网公司崩溃之后出现的情况一样,当前炒作周期的结束将会在区块链或所谓的人工智能产生类似的累积奖金。但就像曾经一样,只有极少数人会赢,大多数人会满盘皆输。

原文链接:https://blog.piekniewski.info/2019/03/12/a-short-story-of-silicon-valleys-affair-with-ai/

产业区块链硅谷通用人工智能
1
相关数据
区块链技术

区块链是用分布式数据库识别、传播和记载信息的智能化对等网络, 也称为价值互联网。 中本聪在2008年,于《比特币白皮书》中提出“区块链”概念,并在2009年创立了比特币社会网络,开发出第一个区块,即“创世区块”。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

多层感知机技术

感知机(Perceptron)一般只有一个输入层与一个输出层,导致了学习能力有限而只能解决线性可分问题。多层感知机(Multilayer Perceptron)是一类前馈(人工)神经网络及感知机的延伸,它至少由三层功能神经元(functional neuron)组成(输入层,隐层,输出层),每层神经元与下一层神经元全互连,神经元之间不存在同层连接或跨层连接,其中隐层或隐含层(hidden layer)介于输入层与输出层之间的,主要通过非线性的函数复合对信号进行逐步加工,特征提取以及表示学习。多层感知机的强大学习能力在于,虽然训练数据没有指明每层的功能,但网络的层数、每层的神经元的个数、神经元的激活函数均为可调且由模型选择预先决定,学习算法只需通过模型训练决定网络参数(连接权重与阈值),即可最好地实现对于目标函数的近似,故也被称为函数的泛逼近器(universal function approximator)。

比特币技术

比特币是一种用去中心化、全球通用、不需第三方机构或个人,基于区块链作为支付技术的电子加密货币。比特币由中本聪于2009年1月3日,基于无国界的对等网络,用共识主动性开源软件发明创立。比特币也是目前知名度与市场总值最高的加密货币。 任何人皆可参与比特币活动,可以通过称为挖矿的电脑运算来发行。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

自动驾驶汽车技术

自动驾驶汽车,又称为无人驾驶汽车、电脑驾驶汽车或轮式移动机器人,是自动化载具的一种,具有传统汽车的运输能力。作为自动化载具,自动驾驶汽车不需要人为操作即能感测其环境及导航。

机器翻译技术

机器翻译(MT)是利用机器的力量「自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)」。机器翻译方法通常可分成三大类:基于规则的机器翻译(RBMT)、统计机器翻译(SMT)和神经机器翻译(NMT)。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

摩尔定律技术

摩尔定律是由英特尔创始人之一戈登·摩尔提出来的。其内容为:积体电路上可容纳的电晶体数目,约每隔两年便会增加一倍;经常被引用的“18个月”,是由英特尔首席执行官大卫·豪斯所说:预计18个月会将芯片的性能提高一倍。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

推荐文章
暂无评论
暂无评论~