必须要澄清的人工智能四大误解

从杀人机器到智能失控,关于人工智能,要澄清的问题实在太多了! 非人类智能可以追溯到非常久远的人类史前时代。随着时间的改变,人类关于非人类智能的探索也从神魔鬼怪逐渐过渡到了魔法般的技术之上。古希腊神话之中有许多神或人类发明制造的机器人;同时,根据安提凯希拉(Antikythera)历法计算机等历史文物推断,人类在公元前200年就已经能设计出有使用价值的类人类智力的工作机制了。

1任何文明、任何时间,人类都有各种各样的人工智能(AI)的概念。但直到现在,我们的人工智能技术才真正有可能超越人类的思维能力,而且我们还将真真切切地实现它。但是,我们对事物的理解和观念都受到了自身文化背景的影响;因此,在这些文化背景下的我们对人工智能也必然存在或多或少的偏见。 

这些偏见多半是错的:在库布里克导演的电影《2001太空漫游》中,HAL 9000远远超过训练有素的宇航员的思维能力最终导向了谋杀。相对而言比尔•盖茨推出的Office助手大眼夹就要容易对付得多了。 如今人工智能已经发展成了一个价值数十亿美元的产业,而且还在不断向我们的手机、企业和家庭渗透。现在是时候澄清一些最重要的关于人工智能的误解了;事实真相到底又是什么呢? 


图灵的自动计算机 图灵的自动计算机

误解一:人工智能就只是为了制造能够思考的机器

上世纪中期,当数字计算第一次成为现实的时候,人们对人工智能在短期内实现同样的目标给予了厚望。阿兰•图灵在其1948年的著名论文《智能机器》中就对这一概念进行了详细的阐释,他认为在20世纪末就将出现可工作的思考机器,对此没有人提出异议。那时科幻作家艾萨克•阿西莫夫虚构出了计算机Multivac,那是一台比1951年美国人口普查局使用的UNIVAC 1更大更智能的计算机。(之后美国人口普查局和IBM建立了合作,IBM将其第一台击败人类象棋手的计算机命名为「深蓝」(Deep Blue),这个名字的灵感来源于科幻作家道格拉斯•亚当斯的《银河系漫游指南》中的超智能计算机「深思」(Deep Thought),小说中正是这台计算机给出了宇宙终极问题的答案:42。)  

为了能够复制类人的思维,人们提出了各种各样的项目和研究,其中大部分都是通过硬件和软件对新技术揭示出的人脑结构和功能进行模拟。其中瑞士洛桑联邦理工学院(EPFL)大脑与心智研究所的「蓝脑」(Blue Brain)计划拥有较高的知名度;该计划起始于2005年,并计划在2023年之前搭建出一个基本等同于人脑模式的工作模型。 

任何大脑模拟器都面临着两个主要问题。首先人脑其实是非常复杂的,拥有大约1000亿个神经元和1000万亿突触连接。这些连接都不是数字连接,它们依赖于具有互相关联的时序的电化学信号和模拟组件;其中的分子和生物学机制我们才刚刚开始懂点皮毛。 即使简单一点的大脑都依然神秘难解。蓝脑计划最近取得的具有里程牌意义的进展是年初时,研究人员成功在一只小鼠大脑中的一个包含了30000个神经元的区域复制了活的啮齿动物大脑中的信号。对哺乳动物来说,30000个神经元只是大脑的一点皮毛。而随着神经元数量和突触连接的增加,模拟的复杂程度也将指数式增加——以至于没法使用现有的技术手段进行处理。

图片来自蓝脑计划,展现了哺乳动物的新皮层柱连接的复杂性。而这里展示的还仅仅是10000个神经元和3000万个连接,人脑可要比这还要复杂数百万倍。 图片来自蓝脑计划,展现了哺乳动物的新皮层柱连接的复杂性。而这里展示的还仅仅是10000个神经元和3000万个连接,人脑可要比这还要复杂数百万倍。

 而这又引出了大脑模拟需要面临的另一个问题:目前还没有任何一个完备的理论能解释「思维」到底是什么。 定义「思维」是人工智能技术最底层的问题,同时也是最难的问题之一。解决了这一问题之后,我们得到的人工智能被称为「强人工智能」(strong AI)。商用人工智能业内人士大多并不相信强人工智能能在短期内实现,或者并不认为强人工智能是必要的或能够带来实际利益。

但毫无疑问,人工智能现在已经开始在从事非常有意义的工作了,而且还将继续进入更多的技术和工作领域;但要具备全面的感知能力,似乎依然还遥不可及。 IBM的沃森超级计算机可以说是目前最引人瞩目的人工智能成功应用的典范,其在美国电视游戏节目Jeopardy上的优异表现让人叹为观止。它通过自然语言处理和大量专家处理过程的结合,尝试不同的策略将内部知识数据库和潜在的答案进行匹配;然后再对其内部专家过程的置信度进行检测,如果置信度足够高,那么沃森就会选择回答这一问题。 

沃森的第一个真正严肃的应用是作为癌症医学辅助诊断手段。从2011年开始,沃森就一直在协助肿瘤科医生,它能够对病人的病历进行深入的分析,并且还能将该病历和存储的其它来源的相关病历、临床专业知识和学术研究进行比对和筛选;这使得沃森甚至能够自行推导出连医生自己也未曾考虑过的治疗方案。 泰国康民国际医院首席医疗信息官Dr. James Miser说:「就像是有了一个有能力又有知识的同事,它能查看已有的信息并且将其和我的病人对应起来。它很快很彻底,并且对已有证据在我正在治疗的独特案例上的应用有着不可思议的理解能力。」 

在Jeopardy上比赛的沃森,图片底部的得分条显示了每一个答案的置信度,如果没有任何一个答案超过了设定的置信度值,那么沃森将不会作答。 在Jeopardy上比赛的沃森,图片底部的得分条显示了每一个答案的置信度,如果没有任何一个答案超过了设定的置信度值,那么沃森将不会作答。

听起来真是奇妙,而这就已经突出展现了现有的具有应用范围限制的应用型人工智能和强人工智能之间的区别。这两种人工智能的都具有类似的基本结构:神经网络。神经网络是一个基于生物学的概念,其主要的功能是将输入或尝试与该神经网络之前已经接触过的信息进行比对和匹配。其中的关键概念是神经网络并没有一个预先设置的分析方式,而是通过前期给定和输入和正确的输出对解决方案进行校正,然后调整配置出一条自己的计算路径以供之后的未知输入使用。 

现在,沃森和Facebook的DeepFace面部识别系统这样的「弱人工智能」已经能够通过特定领域的有限数据集做到这一点了,但要它们超越自己的被编程领域自行完成其它领域的工作依然比登天还难。 谷歌就在弱人工智能上玩得风生水起。它推出了能够根据内容、环境和科学数据进行图片搜索的应用以及风靡全球的机器翻译应用。而在强人工智能的研究上,谷歌却鲜有成绩。人脑可以发现和利用定义不明确的数据模式,并且还能使用复杂得多的方式匹配连接;其中的识别和转换甚至能够给整个宇宙打造一个模型。谷歌DeepMind这样的项目正在实验将不同的技术结合起来。其中的一个例子是将神经网络和增强学习技术结合起来:让机器生成随机输入,直到其满足预设的条件;通过这一过程,实际结果和理想结果之间的差距就会不断缩小,但总归而言,这些应用仍然处于非常具体的狭窄的领域内。

 最近,DeepMind项目正在使用这种组合技术来「掌握2600个各种各样的雅达利游戏」。谷歌研究员Koray Kavukcuoglu在接受Wired采访时表示他的团队已经打造了「一个应该可以应用于其它多种任务的通用学习算法」,但是「学习如何执行任务」和「能够有意识地思考这些任务」之间是有很大差别的,至少「思考」还会涉及到这些任务可能产生的后果和进行这项任务需要的前期投入等等。

误解二:人工智能不会被人类的伦理道德约束

人们很容易想象出智能机器自主行动可能带来的种种危险,像是发了疯了机器人士兵或是不能识别致命状况的自动驾驶汽车。但搜索引擎所可能带来的危险就不是那么明显了,想象一下如果巨头企业的搜索引擎给出了一个带有偏见,但并不关乎你切身利益的答案,你可能甚至都赖得耸耸肩。 然而这才是我们更应该马上关心的问题,这涉及我们使用当前和未来人工智能技术以及被这些技术利用的方式。假如医生使用沃森(或Siri或Google Now或Cortana)作为诊断手段的一部分并由此造成误诊,那么谁应该对这样的后果担负道德上的责任呢?更何况未来有一天我们也许还会面临人工智能要求自身权利的问题。 好在现在人们已经在严肃地对待这个问题了。要知道,光是定义人类之间的道德都已经无比困难了!现代社会通过规则和法律系统为人们的基本道德规则设定了框架,而这种方式也为人工智能道德伦理的发展指出了一条实用的路径。 

第一个问题是机器人或人工智能对人类来说是否是全然的新鲜事物从而需要全新的思维方式,或是否可以只通过对现有的规则进行调整以对其进行约束? 「两种都要。」华盛顿大学法学助理教授兼网络法制定的领军人说,「有相当多的人关注机器人将会‘觉醒’的概念,觉得它们将会要求权利并可能伤害我们。我不觉得这会发生,至少在可预见的未来内不会。但机器人和人工智能对法律和政策来说却是全新而有趣的挑战,就好像是1990年代的互联网一样。」 那么,如果人工智能学习或表现出了有害的行为又该怎么办呢?谁该对此负责? 我们有选择,Calo说,包括如果人们将学习系统部署到可能带来麻烦的地方,那么他们就应该为此承担严格的责任。「这可以将自学习系统限制在真正需要或危险较小的地方。」

但Calo表示并不可能做到面面俱到,「在技术政策中,风险管理将发挥更大的作用。」 互联网就曾经给法律构成过挑战,因此有关人工智能的法律制定也能从中获取经验。Calo说:「其中有些经验教训很容易适用于机器人——例如,架构和代码可以成为一种监管力量,或像是计算机科学和法学这样的学科之间应该互相沟通。」 但其它的一些问题却并没有先例,毕竟人工智能和机器人并不是一些「手无寸铁」的数据。

Calo说 「当涉及到实实在在的机体而不只是比特时,法院就不那么舒服了。我称之为具体化问题(the problem of embodiment)。」 「我们可能需要一个全新的模式。我们可能需要一个联邦机器人委员会帮助其它机构、法院以及州和联邦的国会议员对技术有足够的了解,以便于政策制定。」 这一举措将确保人工智能和机器人等新技术获得足够的关注,同时还能遵守人们业已熟悉的立法方式。 视频:波士顿动力Petman机器人。Petman表面上是一款用于军用服装和其它装备测试的机器人。谷歌2013年收购了波士顿动力。 

制造法律,而不是制造战争

然而总有一些地方道德起不了太大作用。2015年3月份,美国军方主办了一场构思2050年未来战场的研讨会。在研讨会的总结中可以看到人工智能所扮演的大量重要角色;人工智能将不只是处理数据那么简单,它们还直接控制武器,人类士兵可能将不再处于战斗环路之中。 本次研讨会还预测了自动化决策的可能、使用信息误导作为武器、微型定位、大规模自组织系统和能够独立或协作执行任务的机器群。想一想,现代武器即使在人类的控制下都很容易对平民带来附带伤害,而一旦自动化机器也参与到了战争和战斗的决策中,又可能会发生什么呢? 鉴于目前许多人工智能技术都是通过开源协作方式在发展(伊隆•马斯克和山姆•奥特曼近日宣布对一家致力于人工智能技术发展的公司OpenAI进行了数十亿美元的投资),合乎道德的决策现在就已经显得很重要了。如果你在开发人工智能技术,你希望它们被用于战争吗?如果不,又该怎么阻止?

误解三:人工智能将会失控

物理学家斯蒂芬•霍金和科技富豪伊隆•马斯克等多位名人都曾经公开表示过对人工智能的危及人类生存的担忧。 霍金说:「全人工智能的发展可能意味着人类的终结。人类受到了缓慢的生物进化的限制,根本无法与之竞争,而将被取代。」马斯克同样疑心重重,2014年他曾表示强人工智能「可能比核武器更危险,而最近人工智能是『我们最大的生存威胁』」。 一些科技文章提出,拥有足够能力的人工智能不仅将在思维能力上超过人类,而且还将必然进化出自己的动机和计划以伪装和保护自己免受人类的伤害。然后人类就有麻烦了。 

戈登•摩尔画的原图,预测了晶体管密度的未来发展趋势,此后这一预测被总结为摩尔定律。 

戈登•摩尔画的原图,预测了晶体管密度的未来发展趋势,此后这一预测被总结为摩尔定律。[/caption] 但这样的愿景究竟将怎样实现还不能明确。鼓吹人类即将变得微不足道甚至处境变得更为糟糕的理论家和带路人Ray Kurzweil推断由摩尔定律预测的指数式的技术能力增长将一直持续到本世纪40年代,那也将是奇点到来的时候。人工智能将会实现自我延续,并且将再也不需要依赖人类的智力了。 反驳这种论调的论据有很多,比如说摩尔定律的指数增长并不是没有限制的,而且外部因素对这一增长的影响实际上也越来越显著。摩尔定律所预测的每隔2年左右晶体管密度翻一番的增长已经很好地维持了50年时间,现在的技术已经逐渐逼近了基本物理限制的极限。 

随着晶体管尺寸的指数式变小,晶体管的开关速度也相应提高,但同时量子隧道效应所带来漏电也在指数式增长。这个问题很复杂,但本质上来讲就是随着晶体管的各层结构变得越来越薄,电子就越来越容易隧穿出去。这不仅增加了晶体管的总功耗,而且还可能导致灾难性的后果。 摩尔定律还是其中的一部分问题。处理器的时钟频率从上世纪70年代到本世纪头10年已经翻了一倍,而这又带来了另一个问题:芯片的功率密度的飞升;另外要保证这些功率怪兽不把自己给烧了也需要强大的外部配置。 

Intel LGA 1155引脚图。注意其中许多引脚都是为1155输送功率的,而不是用来通信的。 Intel LGA 1155引脚图。注意其中许多引脚都是为1155输送功率的,而不是用来通信的。

尽管芯片的尺寸还在继续缩小,但高端计算机的功耗水平却一直没怎么该变。结果现在我们不得不想办法在仅有10毫米见方的芯片上转移走100W的热量!其难度可想而知。为了进一步发展,我们必然需要全新的冷却技术。 最后也是最大的限制是晶体管本身也是由原子构成的,现在晶体管的尺寸已经接近晶体管成型的最低尺寸了,再继续减小原子也许就不能再继续组成晶体管了。行业路线图指出这一极限大约将在2020年来到;虽然还有几年,但我们现在已经感受到了物理定律的不可违逆的压力。英特尔今年早些时候宣布推迟由14纳米(最小组件只有27个原子)向10纳米技术节点的过渡,将摩尔定律预言的换代时间延长了一年。

等待下一个大突破

目前来看,技术方面的主要努力还是在「核战」上,人们普遍相信2个2GHz内核比单个4GHz内核好,但大多数情况都并非如此,毕竟只有很少的计算任务可以有效地分割到多个内核上运行。 过去几年最大的改变是数据中心大型集中式计算设备、公共云和混合云、以及超级计算机的迅猛增长。微观尺度上的性能提升已经变得相当困难了,企业和机构的注意力也因此转向了宏观,以提升大规模数据处理的效率。 Siri并不在你的iPhone里面,她住在苹果的数据中心里;Xbox One并不能实时处理可修改的游戏环境的物理规则,这一过程实际上在微软Azure上进行。 但即使是在数据中心和超级计算机上,其它因素的限制也在逐渐增大。功耗和散热已经是老生常谈的问题了。另外光速的限制对数字信号传递速度带来的影响也对信号流入流出计算芯片的速度带来了不可避免的限制。实际上光速已经对一些专业应用的人工智能产生了影响,其中最值得一提的是实时金融分析和高频交易。

英格兰南部和欧洲大陆的一些金融微波连接网络地图。许多跨大西洋的线缆都位于康尔沃的地之角,通过微波网络将信号从伦敦传输到康尔沃就会产生1到2毫秒的延迟。 英格兰南部和欧洲大陆的一些金融微波连接网络地图。许多跨大西洋的线缆都位于康尔沃的地之角,通过微波网络将信号从伦敦传输到康尔沃就会产生1到2毫秒的延迟。[/caption] 比如三年前一家网络公司建造一套连接伦敦和法兰克福的地上微波网络,将现有光纤网络的往返延迟时间从8.35ms减半到了4.6ms。在该网络被公开曝光之前,其一直被秘密地用于高频交易。

建造一套连接这两个城市的网络只需要1000万欧元(1500万美元),但高频交易所产生的利润则可能高达数亿英镑! 目前没人知道强人工智能的工作原理,但其必然涉及到处理大量的数据。所以不同位置之间的信号传输都将继续存在延迟,除非我们能找到一种完全不同的物理规则,而这又将涉及到对时空本质的探求,。 量子物理学也在为数据的计算处理贡献着新的思路和方法。或许信息和能量一样,是整个宇宙运转的基础。也许量子物理学最终将揭示出真正智能的人工智能的解决方案,但在那之前,我们还有很长的路要走。

误解四:人工智能将会是一系列突然的突破

在阿瑟•克拉克1964年的短篇小说《拨F字找弗兰克斯坦》中,当全球电话系统获得了知觉时,全世界的电话都同步发出了同样的铃声。克拉克后来宣称蒂姆•伯纳斯-李承认发明网络的一部分灵感来自于这篇小说。但「系统觉醒,变得有知觉」是人们对人工智能未来的误解的核心。 而事实当然并非如此。人工智能的发展和进步是依靠缓慢的、人为有意的方式推进的。只是现在,人工智能在经历了大约50年的默默发展之后,这才开始向更高级的应用领域(如:医疗、教育、金融等)大举扩张。但即便如此,这些仍然是较为狭窄的应用领域,你现在可找不到一个既能帮你理财,又能给你诊断疾病的人工智能顾问。 

Google一个AI项目对图片的自动注解。你可以想象一下,如果沃森可以对医疗图片做类似的注解,会带来多大的进展。 Google一个AI项目对图片的自动注解。你可以想象一下,如果沃森可以对医疗图片做类似的注解,会带来多大的进展。

 关于人工智能「大爆炸」式突破的误解已经给该领域带来了多次伤害:当结果和预期存在差别时,人们的期望和相关投资都会远离相关研究。 这些「人工智能的冬天」总是会时不时到来。上世纪80年代,日本政府投入数亿美元资助「第五代」(Fifth Generation)计划,试图通过能在面对逻辑问题时有效编程自身的大规模并行超级计算机一举超越西方技术。而到该项目完成时,却没有出现任何有商用价值的成果,而此时西方的计算系统已经通过常规技术的演进遥遥领先了。之后政府对人工智能的投资就终止了。 类似的状况也曾发生在70年代的英国,在莱特希尔报告(Lighthill Report)说服了议会人工智能研究没有任何实际应用价值的迹象后,政府取消了大部分针对人工智能研究的投资。

该报告批评说人工智能系统只有「玩具」般的生产力,无法应对现实数据的复杂度,人工智能的「宏伟目标」无法实现。同样,那时候传统的计算方法更加实用,而且看起来也超过了人工智能所能提供的一切。 然而颇具讽刺意味的是,许多失败的人工智能项目(包括60年代初的机器翻译,60年代末的早期神经网络,70年代的语音识别,80年代编纂业务知识的「专家系统」)在云计算的发展之下又重获新生,成为了现实。看起来,商业利益驱动的研究开发还是胜过毫无目的的政府投资,人工智能的进步还是需要建立在其它技术的基础之上。 人工智能技术研究的真正动力是什么?钱。商业化是一个强大的推动力:促使企业持续不断改进自己的产品;随着企业的发展,它们也将适应和开发自己的人工智能软件。当然,除非它们创造了一个可以在没有人类的干涉下适应和开发自己的人工智能。但要实现这样的目标,现在看起来还有很长的路要走。  


入门人工智能
暂无评论
暂无评论~