人工智能正在迎接属于它的时代,尽管烙印尚浅。
去年以来,包括霍金、Musk和盖茨等名人不断警告人工智能可能带来的危害。在读了Nick Bostrom的书《Superintelligence 》以后,Musk公开质疑人工智能可能是「我们最大的生存威胁」。
我们对人工智能的流行观点被谬误的人类中心论所扭曲了。
分歧并不仅仅体现在人工智能威胁论上,人们对人工智能的看法也各不相同。有些人坚持认为,智能程度与人类相当的「强人工智能」永远不可能存在,另一些人则认为这是不可避免的趋势。然而,这些争论却常忽略一个事实——人工智能存在和思考的形式与人类自身是截然不同的。
简而言之,
一个成熟的人工智能未必与人类相似,也不一定任由人类所支配的。如果我们用错误的方式追求人工智能,人工智能就会以这样的形式出现:难以识别、风险扩大并阻滞益处,而这些都是毫无必要的。
这不仅仅是杞人忧天。人工智能早已走出了实验室,深入到我们生活的方方面面。「弱人工智能」,比如苹果的Siri和亚马逊的推荐引擎,还有一些基础设施方面的人工智能,比如高速算法交易、智能汽车和工业机器人,正日益成为我们日常生活的一部分——与工具使用、城市交通、经济建设以及商品贸易息息相关。
不幸的是,人工智能的流行观点,特别是在数不清的电影、游戏和小说中,依然假定拟人特征(比如生气、嫉妒、困惑、贪婪、骄傲、欲望等,更别提冷酷的疏离)是人工智能最重要的部分。这种谬误的人类中心论可能与现代人工智能的研究相去甚远,但它也从一个侧面反映了我们的文化如何看待自身与高级合成认知(advanced synthetic cognition)的遭遇。
[caption id="" align="alignnone" width="1000"]
电影《人工智能》剧照[/caption]
在斯蒂文·斯皮尔伯格2001年的电影《人工智能》中,那个小男孩机器人想成为一个真正的男孩,尽管他只有一颗小小的金属心。而《终结者》系列中的天网则沉醉于将人类赶尽杀绝。1968年,在斯坦利·库布里克执导、改编自亚瑟·克拉克作品的电影《2001太空漫游》中,我们总是自动假定那块巨石想要和人类主角戴夫交流,而不是他飞船上的人工智能HAL 9000。
我认为,我们应该摒弃这样一种想法:「真正的」人工智能必须深切关心人类,并总将人类作为焦点和动机的想法。也许,我们真正害怕的不是一台想杀光人类的大机器,而是这台机器认为我们无足轻重。比被看做敌人更难受的,是根本不把你放在眼里。
除非我们假定人类的智能包含了所有智能可能的形式(这当然是个弥天大谎),否则为何要将高级的人工智能定义为与人类相似呢?毕竟,想要定义「智能」是一件难于上青天的事情,而人类的智能根本无法穷尽所有的可能性。诚然,这么做对实验室研究有一定的实际意义,但是从文化方面来说,这是弄巧成拙、不符伦理,甚至可能是危险的。
我们不需要一个狭隘和自恋的人工智能流行文化——为我们人类寻找一个机器版本的自我映射。因为,如果将这种观点作为人类与人工智能交流的基础,这将是一个有严重缺陷的前提。更不用说,即便纵观人类的文明史,所有文化上的「首次接触」都没有留下什么快乐的回忆。
从《银翼杀手》(Blade Runner,1982)到《她》(Her, 2013)的无数科幻电影的内容都以这样一种观点为蓝本:测量人工智能的发达程度,要看它是否能够被「以人相待」。这个观点伴随现代人工智能研究持续至今。最早的出处还得追溯到1950年,英国数学家图灵发表的《Computing Machinery and Intelligence》。在这篇论文中,图灵详述了「模仿游戏」,也就是我们今天所说的「图灵测试」。虽然测试版本不相同,但是,它们揭示了为什么我们研究人工智能的文化道德的方法定义了人工智能本身,无论好坏。最为人所知的版本是这样的,提问的人向两名隐藏的选手提问,一个是人类,另一个是台电脑。
图灵认为,如果提问者通常分不清哪个是哪个,电脑能成功地被识别为人类,那么,从实践目的来看,不就能认为电脑是「智能」的吗?
不得不说,让机器通过人类询问测试隐藏机器属性才被视为具有「人类智能」,和图灵自己需要隐藏同性倾向才被「以直男相待」,两者之间真是异曲同工。
[caption id="" align="alignnone" width="1920"]
图灵[/caption]
遗憾的是,更多的人仅仅是「知道」图灵测试,却没有真地读过。因为他的文本既精彩又奇怪,还令人吃惊。在文中,图灵把自己的测试解释为当时流行的一个室内游戏变种:在这个游戏中有两个藏在幕后的玩家,一位是男性(A玩家),一位是女性(B玩家),他们通过手写回答问题,尽力让第三方相信自己是一名女性。为了获胜,其中一名玩家必须令人信服地扮演真正的自己,而另一个必须试图以另一种性别通过测试。图灵说,当「计算机取代玩家A」之后,就是他的测试方法。因此,就字义解释来看,在他的测试版本中,计算机并不仅仅假装是个人,而且得假装是一个女人,才能通过测试。
[caption id="" align="alignnone" width="678"]
图灵测试示意图[/caption]
其他版本就渐渐改成,B玩家可以是女的,也可以是男的。一人假装、两人假装或者都不假装,也可以是完全不同的游戏测试。既然我们给电脑一个玩家的座位,那么,我们就可以让它假装是个女的或者男的,甚至欺骗提问者,让其分辨孰男孰女。或者可以更复杂些,让计算机假装成个试图扮成女人的男人,同时还有一位试图装成女人的男人,甚至让计算机假装成这样一位女性,她假扮成装作女人的男人!毕竟现实生活中,以上情形也的确皆有可能。
由莫滕泰杜姆(Morten Tyldum)导演的2014年奥斯卡获奖影片《模仿游戏》讲述的就是图灵的故事。回溯到那个同性恋还被批判的时代,即使是身为数学家的图灵不得不「通过」自己是直男的测试。当隐瞒的性取向被公开后,他被迫接受称为「化学阉割」的可怕治疗(荷尔蒙疗法)。最终,无法忍受身体和精神上双重折磨的图灵选择了自杀来结束自己的生命。更荒诞的是,在当时图灵对于打败希特勒做出的巨大贡献却被当做国家机密而被历史尘封。直到最近,已经去世多年的图灵终于得到英女王颁发的皇家赦免,但成千上万根据类似法律判处的其他英国男人却没有。
要求人工智能通过测试以证明其具有智力,要求图灵用测试来证明自己的性取向,这两件事具有相同的讽刺意味,既哗众取宠又严重不公。
就好比,判断一个人是白人还是黑色皮肤的人,是男人还是女人,都取决于其他人的观察和解释。因为其他人已经习惯根据传统的线索(比如种族、性别、种类等)进行判断。任何正在经受测试的人或事,只有与那些观察他(或她、它)的人共谋,才会让测试成功通过。至于人工智能是否愿意通过测试,则是这个测试上久拖不决的另一个问题了。无论是哪种方式,所谓的「通过」更多的是观众看法,而不是被测试者的表现。
我们最好还是假定:宇宙中,「思考」是种更加多样化的行为,外星人也会思考,思考并不限于我们人类这种特殊个案。
与其说,人工智能的哲学课题是人类教会机器如何思考,不如说是机器告诉人类什么才是一个更加全面、更加真实的思考行为。
我们曾经希望,把「人工智能是否存在」的定义联系到它能否模仿人类思考的能力。它基于一种这种奇怪的人类优越感:只有人类能够思考。正是这种自负的想法让曾经的研究者希望在现有的机器上重现人类的思维,然而却挫败连连,最后徒劳无功。因为它根本不对。当代的人工智能研究表明,「能为任何一件特定的事做安排」就可以说是「智能的」。它恰恰不反映我们人类的思考模式,甚至可以说没有任何关系。现任谷歌的两名研究主管——斯图尔特.罗素(Stuart Russell) 和 彼得.诺维格(Peter Norvig)在他们最经典的人工智能教材里提出:
仿生设计,或者说对生物形态的模仿,并不是我们设计复杂技术的通用方法。比如:飞机并不像鸟一样飞翔,我们当然也不会用「欺骗鸟儿让它们以为飞机是鸟」这样的标准,来检验这些飞机是否真的具有飞行能力。既然如此,那为什么对人工智能要采用这个标准?现在,那些务实的人工智能研究已经不把焦点放在图灵测试上了,它并不能视作一个客观的智能标准。但在我们的流行文化里,顽固的人类中心主义思想却依然认为这个智能测试很重要。就像是迪斯尼影片里那些像年轻人一样说话的动物,它的想法要让人类接受,最好得采用这种幼稚的腹语术。
可以说,人工智能的拟人化标准就是一种「前哥白尼」态度。这种态度有什么不好?我们想要人工智能以人性化的方式陪伴我们每一天,这不好吗?
[caption id="" align="alignnone" width="480"]
德国研究者展示的人工智能研究成果[/caption]
答案是,如果我们对其余的生命体持有这种幻想,将损失太多知识;只有保持真诚和清醒的认识,才能从不同的综合智能中获得好处。我并非是在说哲学观点,因为有些哲学家在讨论:人工智能作为有知觉的实体,是否应该赋予它们伦理权利。我的意思是,更真实的视角能更好的让我们思考自己的技术。Musk、盖茨和霍金说「人工智能可能带来的危险」,它成了头条新闻。这个观点当然很重要,但我担心大多数读者都误解了他们的意思。
自从1942年由艾萨克.阿西莫夫提出「机器人三定律」,人们就指望靠程序的设计,足以让人工智能不会「伤害人类」。但这必须建立在一个基础上——人工智能必须知道人类是什么,以及做什么事会伤害人类。其实,人工智能是否会伤害我们,与它对人类有没有恶意,压根没有关系。伤害可能会在很多情况下发生,而且这些情况大多和我们最愚蠢的极端的善意的指示相关。与以往假设的伤害情况相反,伤害的发生既不是因为人工智能发生机械故障,也不是因为它们违背了道德定律,人工智能的巨大风险恰恰是因为它的强大和对人类的公正( the A.I. may pose an existential risk because it is both powerfully intelligent and disinterested in humans.)。如果我们只是在拟人化的特质上认识人工智能,或者认为它有这重义务,那么我们很难避开这些困境。
不管「强人工智能」是否真的会诞生,如果我们还在坚持那些明知是错误的观念,就会在探索和求知的道路上止步不前。在1950年的那篇论文中,图灵对自己提出的人工智能观点其实还举了很多反例,包括把它和早期反对哥白尼的天文学进行比较。「地球是宇宙中心」、「人类是绝对特殊的存在」、「人类是无价的完美生命」...虽然持有这些错误观点人们的幼小心灵受到了哥白尼学说的打击,但之后的人类文明终于可以基于宇宙真实的样子去探索,而不是基于那种狭隘自私的观点。图灵在文中把那些称为「神学偏见」,所以,我们也可以把人工智能的拟人化标准说成是「前哥白尼」态度,但它们却在俗世横流。如果存在一种强大的非拟人的人工智能,它可能会让我们更加清醒的认识自己,了解我们的现状,并对复杂的「智能」有更完整的理解。我们就能从这样的起点出发,满怀希望地改造世界。而且我们将充满信心,因为这样的睿智总是帮我们提出更好的模型去模拟未知的世界。
错误的观念还会最后导致一种长期的危害,这种人类奴役技术的关系已经把我们带到了「第六次物种大灭绝」(前5次自然灭绝和人类活动加速的第6次灭绝)的悬崖边上。可以说,「人类世」(地质学上认为人类活动进入工业化后地球进入新的地质年代)本质上并不是人类技术的发展,而是人类观念的产物——世界已经可以根据我们的需求和愿望而改变。我们从这个词中能嗅到些许宗教领袖传播的美好福音世界:机器完全屈从于人类的需求和愿望工作。如果你也这么认为,请谷歌搜索「猪头屠宰机」(pig decapitating machine),虽然这并非我的本意,但还是请你先了解它的血腥残酷再来和我谈谈,如何创造一个机器完全臣服于人类愿望的世界吧。
也许有人还心存天真的幻想,认为我们社会也经历过奴隶制度、神权制度再到法制,所以即便已经是2015年,对机器来这套又何尝不可? 正是这种感情用事——所谓的技术伦理——构成了现在「人类世」的基本算法,也造成了基本困境。继续顺从这样的情感,只会让我们在遭遇人工智能后一败涂地。现在,正是我们朝前迈进的时候。你不觉得,我们已经为这样自命不凡的风俗付出了太多的代价了吗?
本文选自《纽约时报》作者:Benjamin H. Bratton;机器之心编译出品;参与成员:汪汪、妞妞姐姐 、庞