为何奇点主义和无人工智能主义都错得离谱?

Luciano-Floridi_avatar.png

Luciano Floridi 是一位牛津大学的哲学与信息伦理学教授,也是牛津 Uehiro 实用伦理学中心(Uehiro Centre for Practical Ethics)的杰出研究员。他于 2014 年最新发布了新书:《第四次革命:信息空间如何重塑人类现实》(The Fourth Revolution: How the Infosphere Is Reshaping Human Reality)。

假设你走进一栋未知大楼里的某一间暗室里。你也许会因为可能潜伏在黑暗中的怪兽而感到恐慌。或者为了不撞上家具,你会直接把灯打开。而这个暗室就是人工智能的未来。遗憾的是,许多人都相信:在进入这间暗室后,我们可能会遭遇某种邪恶的超智能机器。这个担忧已经有段历史了。回溯到上世纪 60 年代,当英国数学家 Irving John Good 以密码学家的身份在 Bletchley Park 与 Alan Turing 公事时,他做了如下观察:

首先,我们把超智能机器定义为「其能力可以远超越所有人类智力活动(不论多么聪明)的机器」。因为设计机器也是众多智力活动之一,超智能机器完全有能力设计出更先进的机器;那么一场「智能爆炸」将无疑会发生,并且将把人类的智力远远甩在身后。因此,第一部超智能机器,如果足够温顺的话,将会是人类所需要的最后一项发明,它会指引你如何控制一切。有趣的是,这一点几乎从没有在科幻小说以外的地方被提到过。看来有时候,我们还真需要严肃的看待这些科幻小说。

然而一旦超智能机器成为现实,它们也许根本不会那么温顺,它会像终结者一样:把人类当作低等物种一样奴役起来、无视我们的权利,并且只追求它们自己想要的,完全不管对人类的后果。

你如果觉得这听起来简直难以置信,那你或许得重新考虑一下局势了。从半个世纪前快进到现在,我们的数字技术在蓬勃发展,这让许多人都相信 Good 所提到的「智能爆炸」是一个巨大隐患;如果我们不谨慎,那么人类的末日可能就不远了。Stephen Hawking 在2014年说:

完整人工智能的发展也许是人类走向终点的魔咒。

去年,Bill Gates 阐释了同样的观点:

我是属于担忧超极智能的阵营的。起初这些机器会为我们完成许多工作,而它们并没有达到超级智能。如果我们能处理好这件事,那没什么问题。可是再过几十年,机器的智能就会足够强大并成为一个困扰。我跟 Elon Musk 和许多其他人一样,不明白为什么有人对此毫不担心。

那么 Tesla 的 CEO Musk 怎么说的呢?

对于人工智能,我们应该非常谨慎。如果要我猜想人类最大的生存威胁是什么,大概就是它了......科学家们越发强烈地认为应该有一些国家和国际级别的监管,好确认我们不会做出什么太愚蠢的事情。在人工智能这件事上,我们其实在召唤一只恶兽。在所有的故事里,总有一个拿着五角星图腾和圣水的勇士,就好像他可以控制这只恶兽。其实不然。

现实则更加平淡。今年三月,微软为 Twitter 引进了一款人工智能为基础的聊天机器人 Tay。可仅仅 16 个小时之后,他们就不得不将其卸载。Tay 本应该在和人类互动时变得更加聪明。相反的,它很快就变成了一个邪恶的崇拜希特勒、否认纳粹大屠杀、提倡乱伦性交、甚至声称「 9/11 是布什做的」的宣言话痨。这是为什么?因为 Tay 的工作原理就像是一张厨房用纸:它被所吸收的杂乱信息而塑造成型。微软也因此向大众道歉。

这是人工智能如今的状态。在无数次讨论了超级智能机器的风险之后,是时候去打开暗室的灯,而不是担心那些科幻小说里的情节了。我们应该开始聚焦人工智能在现实中的挑战,从而避免在设计和使用智能科技时产生痛苦的、难以承担的错误。

让我解释的更详细些。哲学无法很好的捕捉细微的差别。它可以把自己想作一个由精准性和稳固差别而组成的模型,但是它更热衷于把东西都一分为二、两极分化。就像是:内在论或外在论,基础主义或融贯主义,把推车把手推向左还是推向右,僵尸或不是僵尸,观察者相对或观察者独立,可能世界或不可能世界,有固定点或没有固定点......哲学也许会宣扬自己对两者都包含(「女孩 或 男孩 都可以玩耍」,「girls or boys may play」),但又常常沉浸在不相容的亦或之中(「要么你喜欢它,要么你 不 喜欢它」,「either you like it or you don’t」)。

header_ESSAY-V1_Aeon_Aubergine_Final.jpg

现在关于人工智能的辩论也是如此,在相信真正人工智能的人和不相信它的人之间两级分化。是的,关于真正的人工智能;它不像你手机里的 Siri , 客厅里的 Roomba, 或厨房里的 Nest (虽然我拥有它们全部)。相反,想想 1927 年的电影《大都会》里的假 Maria,1968 年的《 2001 :太空漫游》里的机器人 Hal 9000(Good 也是这些电影的顾问之一);1977 年的《星际大战》里的C3PO, 1982 年的《银翼杀手》里的Rachael,1987 年的《星际旅行—下一代》里的 Data, 1999 年的《黑客帝国》里的 Smith 特工,或 2013 年的《她》里无实体的 Samantha 。差不多就是这样。真正人工智能和「智能爆炸」的信仰者属于「奇点教」(Church of Singularitarians), 而因为没有更好的称呼了,我把那些非信仰者叫做「无人工智能教」( Church of AItheists)。我将对两种信仰都加以分析,来看为什么两者都是错误的。同时,要记住:好的哲学几乎永远都停留在无聊的中间地带。

奇点主义者们(Singularitarians)坚信三个信条。第一,创造出某种方式的超级人工智能在可预见的未来是有可能的。这个转折点叫做「科技奇点」,也是这个信仰名字的由来。然而超级智能的本质和即将到来的确切时间还没有被确定,虽然奇点主义者们通常愿意提及那些「近得不需要去担心」而又「远得还不能被实现,即无法被反驳」的未来。

第二,如果人类被这样的超级智能所主宰,我们会面临一个巨大的风险。第三,当代人的首要责任是确保:要么技术奇点压根不发生,要么它就良性地发生并给人类带来益处。这轮廓了摩尼教(Manicheaism)世界观的所有因素:「好」与「坏」的斗争,灾难式的玄外之音,一种「我们必须要做些什么,否则一切都来不及了」的急迫性,一个关于拯救人类的末日视角,还有一个对恐惧和无知的呼吁。

把这些元素放进如下场景中:当人们理所应当地担心着愚蠢的数字科技对她们生活的影响时,特别是在工作市场和网络战争中;当各大媒体每天报道着各种新玩意儿以及史无前例的由电脑驱使的灾难时,你会发现大规模搅扰的诀窍就是给普罗大众散布数字鸦片。

像所有以信仰为基础的观点一样,奇点主义无法被否认,因为它至始至终不被理性和证据限制。它同时也不合情理,因为我们没有理由去相信,任何类似(超级)智能机器的东西会从我们对电脑科学和数字科技的当今和可预见的了解中诞生。让我这么解释:

有时,奇点主义是有条件的被呈现出来的。这很聪明,因为「那么」紧随着「如果」,而不仅仅遵从经典逻辑中的「爆炸原理」(注:即,若有某事『P 』和 某事的否定『非P 』,则可以推导出任何结论『 A 』):「如果」某种超级智能要出现,「那么」我们就会有大麻烦了(不仅仅是霍金所说的「也许会有」)。完全正确。但是在以下条件中,它依然正确:「如果」启示录中的四骑士要出现,「那么」我们会有更大的麻烦。

在其他时候,奇点主义依赖着一种非常弱的可能性:某些形式的超级人工智能可能会发展出来,难道不是吗?这是可能。但是这个「可能」仅仅是一种逻辑上的可能性—据我所知,对超级人工智能发展的假定还没有任何矛盾。可这是一个小把戏,它混淆了一个巨大的区别:一个当我已经不舒服的时候所说的「我明天可能会生病」和「我可能是一只梦见自己是人的蝴蝶」之间的巨大区别。

我们尚不清楚,从要求把车停入一个狭小空间的电脑技术里,到底会如何自动进化出复杂的、甚至凶恶的超级人工智能。

假定「一个你从未听说的已逝亲戚留给了你一千万美金」是没有矛盾的。这件事可能发生。所以呢?矛盾,就像享受愉快婚姻的单身汉一样,不是事物的可能状态。然而,非矛盾,就像隐藏在我们身边的那些从未被发现的外星特工一样,仍然被看作是疯狂的表现。

也就是说,这个「可能」并不是一场地震的「可能发生」,而是想象你作为史上第一位永生的人类这件事,「其『不可能发生』是不正确的」。纵然如此,这也不是让你表现得好像你会永远活下去的原因。除非有人拿出了反驳的证据,来证明在我们现存的和可预见的对电脑科学的了解中,确实存在什么东西让我们推测超级人工智能的出现是貌似合理的。

我相信,奇点主义者们混淆了信仰和事实,并常常因为一股真挚的灾难紧迫感而摇摆不定。他们谈论的话题从失业、数字系统风险、无人驾驶飞机故障,到其他的现实担忧:关于电脑科技不久就要统治人类生活的方方面面—从教育到就业、从娱乐到冲突—的担忧。

从这里开始,他们甚至跃进到了因为无法控制自己的下一辆本田思域而产生的深深忧虑之中,因为这辆车马上就要拥有自己的思维了。我们尚不清楚,从要求把车停入一个狭小空间的电脑技术里,到底会如何自动进化出复杂的、甚至凶恶的超级人工智能。而事实是,爬上树顶对登月而言并不算迈出了一小步;这会是整个旅程的终点。我们即将看到的是,越来越多的智能机器将胜任更多现今由我们自己处理的任务。

当所有其他争论都失败时,奇点主义者们会钟情于罗列出一些数学信息。其中最经常提及的就是摩尔定律(Moore’s Law)。这是一个由经验得出的声明:在数字计算机的发展中,集成电路上的晶体管数量大约每两年就会翻一倍。其结果是更少的晶体管带来了更多的计算能力。然而一切都在改变。纳米科技的技术问题就呈现出巨大的制造挑战。毕竟在事物本身融化之前,其可以分解、缩小的大小是有限的。摩尔定律在此则不再成立。仅仅因为某个东西可以在一段时间内呈指数级的增长,并不代表它会永远的增长下去,正如《经济学人》在 2014 年所说的:

纵观历史,人类作为地球的统治物种,我们的霸主地位还从未被挑战过。这会即将被改变吗?火鸡,一种之前完全无害的生物,其体重已经从 1929 年的平均值 13.2 磅(6 公斤)增长到了如今的 30 磅。一项坚定的科学假定表示,这个现象会持续下去;《经济学人》计算在 150 年内,火鸡将会与人类同样大小。而在 6000 年以内,火鸡的存在将会让整个地球形同侏儒。科学家们宣称火鸡的急速发展是家禽饲养业革新的结果,例如选种和人工授精。火鸡变大的「人工」本质,还有它们大多数都失去了飞翔能力的现实,都揭示着这并不完全是一个失败。然而,光凭着有几乎 2 亿 5000 万只火鸡在美洲耀武扬威,我们的担忧还是有原因的。今年感恩节唯一一项重要任务就是:在火鸡吃掉你之前吃掉它们。

如果不是因为一条增长曲线能够轻易的变成 S 型 (从近乎指数的初增长开始,然后紧随着饱和、增长放缓、成熟和最后的增长停止),从「火鸡挑战」到「人工智能挑战」的跨越会很快。但是我怀疑用一条 S 型的增长曲线来作描述对奇点主义者来说也许是一种亵渎。

奇点主义简直是不负责地令人忘忧。它是一个富裕世界里的思考命题,常常搅扰那些有闲暇社会里的人,而这些人似乎已经忘记了到底什么才是压迫人性和地球的真正危害。一个例子足以证明:大约 7 亿人无法使用安全饮用水。这是人类面临的一个主要威胁。哦对了,当你认为专家们的预测是可以信赖的的时候,请再思考一次。我们身边有许多专家说出的荒谬错误的科技预言了(在 Cracked.com 上可以看到 David Pogue 的那些滑稽预测)。 Gates 在 2004 年说道:「从今天起两年内,垃圾邮件的问题将会被解决。」还有在 2011 年,Hawking 宣布:「哲学已死」(那你们现在读的是什么?)。

我最喜欢的一个预言来自 Robert Metcalfe,以太网的联合发明者以及数字电器制造商 3Com 的创始人。他在 1995 年承诺,如果「因特网会像超星星一样爆炸,并且在 1996 年灾难性地崩塌」这句话被证明是错的,他会「吃了他自己说的话」。在 1997 年,他信守承诺,当众在一台食物处理机中把他的论文液化并喝光了它。奇点主义者们如果能像他一样勇敢、言行一致就好了。

「无人工智能」主义者们则深深地懊恼于那些敬奉着错误的数字神明的人和那些尚未实现的奇点主义预言;他们对真正的人工智能保持怀疑,并把证明「关于真正人工智能的一切信仰都是彻底错误的」当作他们的使命。人工智能仅仅是电脑而已,而电脑只是图灵机(Turing Machines )罢了,而图灵机不过是句法的引擎,它不能思考、不能感知也没有意识。就是这样。

这就是为什么电脑(仍然)有那么多做不到的事,就像几篇文章的标题所涵盖的— Ira Wilson (1970); Hubert Dreyfus (1972; 1979); Dreyfus (1992); David Harel (2000); John Searle (2014)—虽然精确的来说,电脑做不到的是去锁定一个可方便移动的目标对象。这也是为什么电脑不能处理语义问题(任何语言的语义,包括中文,不论谷歌翻译怎么发展完善)。这也证明了其实完全没有什么值得讨论的,更别说需要担心什么了。世界上没有「真正的」人工智能,也更不用说它会带来的问题了。人们应该放轻松,去享受电子工具带来的美好。

和奇点主义一样,无人工智能主义的信仰是不适时宜的。这两个教派都在加州有着许多追随者,而加州正好又拥有好莱坞科幻电影、受人赞誉的研究型大学(比如伯克利)和一些蓬勃着的世界上最重要的数字公司。这也许并不是一个巧合。当巨大资金参与其中时,人们很容易迷茫。举个例子,谷歌正在不遗余力的购买着各种人工智能技术公司(免责声明:我是一名已申请消除网络个人信息的谷歌顾问议会成员),所以谷歌肯定知道一些关于发展一台可以思考的电脑的真正可能,而这是我们这些门外汉们所不知的。

谷歌执行总裁 Eric Schmidt 进一步支持了这个观点,他在 2013 年告诉阿彭斯研究所(Aspen Institute):「许多在工智能领域的人都相信我们在5年内将接近制造出[能够通过图灵测试(the Turing Test)的计算机]的状态。」

图灵测试是检验人工智能是否距离我们更近了的一个方法。你向在另一个房间的两个对象提问;一个是人类,一个是人造机器;如果你不能辨认出两者回答的区别,那么机器人就通过了图灵测试。这是一个粗糙的测试。试想一场驾驶考试:如果 Alice 没有通过,则她不是一个靠谱的驾驶员;但即使通过了考试,她也可能是个马路危险分子。所以图灵测试为智能形式提供了一个必要而不充分的条件,这是一个很低的门槛。然而至今还没有人工智能通过这个测试。更重要的是,所有程序都以同一种方式不及格,而这些测试科目在早上世纪 60 年代时就被研发出来了。

我想和众位打一个赌。如果在 2018 年 7 月 16 号 之前有一个软件程序通过了图灵测试并赢得了罗布纳奖(Loebner Prize)的金牌,我就吃下一整盘茄子(我最讨厌的就是茄子)。

奇点主义者和无人工智能主义者都错了。正如图灵在他 1950 年的论文中介绍的那样,「机器能否思考?」这个问题「完全没有意义,根本不值得我们讨论」。(嘲讽或有预见性的是,这个问题被雕刻进了罗布纳奖的奖牌上。)不管你属于哪个阵营,这都是事实。然而两者仍在继续着无谓的争辩,并遏制任何寻求原因的异见。

真正的人工智能在逻辑上不是不可能,但还完全无法实现。我们还不知道该如何开始设计构造一个真正的人工智能,特别是因为我们对大脑及智力的运作了解甚少。这意味着我们不应该花时间对超级智力的可能出现做无谓思考。真正重要的是日益聪颖的科技正在对人类如何感知自身、世界及与之的互动作出巨大的影响,而非机器本身是否有意识、智能、或像我们一样知道什么。它们不会。有许多著名的研究结果表明了计算的局限性,即对于所谓的不可判定性问题,要构建一种总能得出明确的是—或—否结果的算法被证明是不可能的。

举个例子,我们知道计算机器需要满足加里-霍华德对应(Curry-Howard correspondence);这个条件表明:逻辑证明系统(注:自然演绎)与计算模型在结构上其实是同一种事物,因此任何逻辑限定都可运用在计算机上。很多机器能够做不可思议的事情,包括在玩西洋跳棋、国际象棋]围棋和 Jeopardy 小测验比赛上都比我们更出色。然而它们都是图灵机的各种版本,一种通过数学逻辑而给计算机设定其可做事的范围的抽象模型。

量子计算机有着同样的可计算范围局限(所谓的可计算函数)。图灵机不能创造出有意识的、智能的实体。而关键是我们的智能科技——当然多亏了庞大的现有数据和一些十分复杂的编程方式——能够比人类更好地处理更多的任务,其中包括去预测我们的行为。因此人类不是唯一能够成功履行任务的施事者。

这就是我在自我认识中所定义的「第四次革命」。我们不在宇宙的中心(哥白尼),不在生物王国的中心(达尔文),也不在理性的中心(弗洛伊德)。图灵之后,我们不再处于充满了信息处理和智能施事者的信息空间的中心(infosphere)。我们与数字技术分享这个信息空间。这些普通的人工制品可以比我们更好地完成更多的任务,尽管不会比一部烤面包机更聪明。它们的能力令我们感到羞愧,使人重新评估人类的独特性及在宇宙中的唯一性。我们因为能下象棋而认为自己聪明。现在一部手机却打败了国际象棋大师。我们因为可以购买任何想要的东西而认为自己是自由的。而如今低等智能的工具却能预测关于我们的消费偏好模型。

区别是什么?就像在洗碗时,你与洗碗机之间的区别一样。结果是什么?任何关于人工智能的末日想象都可以被无视。

我们科技的成功很大程度上取决于一个事实:当我们推测超级智能的可能性时,我们日益将世界包裹在众多工具、传感器、应用和数据之中,使它变成了一个 IT 友好型环境,技术可以在没有理解能力、精神状态、意图、演绎、情感状态、语义技能、意识、自我认知 或 弹性智能的情况下取代我们。存储器(正如在算法和巨量数据中)在航天器着陆、寻找家与办公地点之间的最快线路、或是挖掘冰箱最佳价格方面,都强过人类智力。

通过处理越来越多的数据,数字技术能够比我们更好地做更多的事。它们还通过分析自己的输出来作为下次运算的输入而提高自身性能。AIphaGo ,由谷歌 DeepMind 创造的计算程序,打败了世界最棒的棋手并赢得了桌上围棋比赛,因为它能够运用大约三千万步数的数据库并与自己对决上千次,「学习着」如何提高自身性能。这就像一个可以自我锋利的双刃系统。区别在哪?就像在洗碗时,你与洗碗机之间的区别一样。结果呢?任何关于人工智能的末日想象都可以被无视。危险的不是超级智能的出现,而是我们可能会误用数字科技,给大多数人类及这个星球带来伤害。在任何可预见的将来,我们自己才是、并依然会是问题的根源,而并非科技。因此我们应该关注真实的挑战。我总结出了其中的五条,它们同等重要。

我们应当使人工智能变成「环境友好型」。我们需要可建立的最智能的技术来解决那些具体的压迫人类及这颗星球的危害,从自然灾难到金融危机,从犯罪、恐怖主义及战争,到饥荒、贫困、无知、不平等及糟糕的生活水平。

我们应当使人工智能变成「人类友好型」。我们应该用人工智能去真诚尊重的对待他人,而不是把他人当做实现自己目标的工具,就如康德所解释的一样。

我们应当利用人工智能的傻劲为人类智力工作。大量的岗位将会被割裂、淘汰及创造;这种结果的好处应该被所有人共享,其代价由全社会承受。

我们应当让人工智能的预言能力为自由及自主性服务。一些行为:推广营销产品、影响人们的行为、哄劝人群或者打击犯罪及恐怖主义,它们永远不应该损害人类的尊严。

最后,我们应当让人工智能锻炼我们自己的人性。一个巨大的风险在于,我们可能会误用智能技术,从而伤害大部分人类及整个星球。丘吉尔说「我们塑造建筑物,之后建筑物塑造我们」。这也可运用到信息空间及它的智能技术上。

奇点主义者与无人工智能主义者将会继续他们关于真正人工智能的可能性与不可能性的相互抨击。对此我们应该表示容忍,但我们无需参与其中。正如但丁的炼狱篇(Dante’s Inferno)中维吉尔(Virgil)的建议:「我并不提及它们,而只是静静观察,然后从它们身边走过。」因为这个世界需要一些好哲学,而我们还需要关注那些更紧迫的难题。

入门
暂无评论
暂无评论~
返回顶部