霍金的警告:人工智能是人类的终极敌人

近日,著名物理学家斯蒂芬·霍金在Google的ZeitgeistMinds演讲中,回顾了地球上智能的起源和命运,并警告说,人工智能可能成为人类最大的威胁。他认为,人工智能的发展无可限量,应该尽早遏制AI军备竞赛,让AI向符合人类利益的方向发展,以免人类在未来受到机器的奴役。以下为霍金的演讲视频。(字幕由机器之心翻译出品) [embed]https://v.qq.com/iframe/preview.html?vid=q0165xt1gp0&width=500&height=375&auto=0[/embed]
演讲全文
今天,我想谈谈在我们的宇宙中智能的起源与命运。我在这里说的一切,都包括人类在内。即使这个物种的大部分行为,在历史长河中都显得相当愚蠢,而且对自己种族的维系毫无益处。
我们都知道,随着时间流逝,事物变得越来越混乱。热力学第二定律告诉我们,总混乱度或者“熵”总是随着时间增加。但是,这里面有一个漏洞,让一个小系统能减少一定混乱程度,只要它能使周围环境的混乱程度增加得更。最初的宇宙荒凉死寂,如今已经进化出能够利用这种漏洞的实体,同时在不断自我复制,我们把这种实体称为“生命”。信息是生命之本,DNA把生命的蓝图代代相传,从此,复杂的生命形态通过感觉器官输入信息,比如眼睛和耳朵,然后在大脑或其他系统里处理信息,从而弄清楚如何在这个世界中行动与交流,比如把信息输出到肌肉。 在138亿年宇宙历史中的某个时刻,一些美妙的事情发生了,这种信息处理发展出相当高的智能程度,于是生命出现了意识。于是,我们的宇宙苏醒了,开始意识到自我的存在。 我说完一段智能的简史了,接下来该说什么呢?有人认为,今天的人类是进化的顶峰,这已经足够好了。我不同意。一定有一些非常特别的东西,关系到我们宇宙的边界条件。没有什么比“没有边界”更特别的了。人类奋斗也应该是没有边界的。我认为,蚯蚓和计算机之间没有什么本质的差别。我也相信,进化还意味着蚯蚓的大脑和人类的大脑也没有什么本质区别。因而,计算机在原则上能够赶上人类智能,甚至是超越我们。直到今天,计算机的发展一直遵循摩尔定律,即计算机的速度和内存每隔两年就会加倍。人类智能或许也可以增长,因为有基因工程,但不会那么快。结果就是,计算机很有可能赶上人类智能,就在接下来的一百年内。如果那真的发生了,我们得确保计算机跟我们目标一致。 当然,你很容易把高智能的机器当作科幻小说里的情节,但这是一个错误,而且可能会是我们犯下的最严重的错误。人工智能研究正在飞速前进。最近的一些里程碑,比如无人驾驶汽车、在“Jeopardy!” 节目上胜出的计算机以及个人数字助理Siri、Google Now和Cortana,都在预示着一场IT军备竞赛。这场竞赛的推手,是前所未有的投资和建设,其基础是日益成熟的理论依据。这些成就,跟未来的创造相比,或许都会黯然失色。 未来的潜在得益是无穷的,文明的一切都来源于人类智能。我们无法预测未来可能实现什么,因为人类智能(的潜力)会被人工智能带来的工具所放大,但根除战争、疾病和贫穷肯定会是每个人的首选。 成功发明人工智能是人类历史上最重大的事件。然而不幸的是,它也可能是最后一件,除非我们学会如何规避风险。比如说在近期内,各国军队都在开始一场军备竞赛,来研发自动武器系统。它能够自动选择并消灭目标。而联合国却在商讨是否应下令禁止这种武器。反对自动化武器的人通常忘了一个最重要的问题,军备竞赛的目的可能是什么?那是人类想要的吗?你真的想让廉价的人工智能武器成为明天的来福枪,在黑市上被卖给犯罪分子和恐怖分子吗?我们担心能否长期控制永远在发展的人工智能系统,这意味着我们该把它们武装起来,再防御它们吗?2010年,电脑化的交易系统造成了股市的闪电式崩盘。如果由电脑触发的崩盘发生在人类防御阵营里,会发生什么事呢? 现在是停止自动化武器军备竞赛的最佳时机。在未来一段时间里,人工智能或可使我们的工作自动化,带来繁荣与平等。着眼未来,到底会发生什么,是不可限量的。没有物理定律能把粒子组织起来,实现比大脑更先进的计算功能。人类大脑的结构是最先进的,爆炸式的转变是有可能发生的,虽然可能并不会像电影里的情节一样。欧文·古德在1965年提出,拥有超人智能的机器可以不断改良它们自身的设计,最终引发Vernor Vinge所说的“奇点”。可以想象这种技术比金融市场更为智能,比人类研究者更有创造力,比人类领导者更长袖善舞,或许还能用我们无法想象的武器压制人类。然而,人工智能的短期影响取决于它将被谁控制,长期影响则取决于它能否被控制。 总而言之,超越人类的人工智能可能是福祉,也可能是大难临头,所以我们应该未雨绸缪。如果一个更先进的外星文明发来一条信息说“我们会在几十年里来到地球”,难道我们只回答一句“好的,到了再告诉我。我们会开着灯的?”大概不会。但面对人工智能,我们或多或少就是这样回答的。除了一小部分非营利机构外,几乎没有任何严肃的研究聚焦这些话题。幸运的是,时代在改变。科技先驱们如埃隆 · 马斯克、比尔·盖茨和史蒂夫 · 沃兹尼亚克,他们跟我怀有相同的忧虑,于是人们开始进行风险评估,开始关注人工智能的社会影响。这些都在慢慢兴起。 许多世界领先的人工智能研究者最近签了一封公开信,呼吁人工智能的发展目标要重新界定,从简单原始的不定向创造转为定向创造,旨在造福全人类。我是未来生命研究所的科学咨询委员会成员,我们刚刚发起一个全球研究项目,着力于让人工智能造福人类。刚刚发现火的存在时,我们总是搞得一团糟,后来才发明了灭火器。有了更强的技术,如核武器、合成生物学和强大的人工智能,我们应该提前规划,从而在一开始就走上正轨。因为那可能是我们能把握的唯一机会。 我是一个乐观主义者,不相信边界的存在。我认为人的一生能有无限的成就,生命和智能也可以在这个宇宙中无限发展。这意味着,我刚刚说的关于智能的短暂历史,并非故事的结束,而是一个开始。我希望生命还能在宇宙中流芳百世。 未来是一场竞赛,一方是日益发展壮大的技术,另一方是我们使用技术的智慧。让我们确保人类智慧能够胜出。 感谢您的聆听。 字幕由机器之心翻译出品。听译:Joyce,时间轴:汪汪。
入门
返回顶部