Elon Musk 正在全面押注自动驾驶汽车的新计划,他需要强大的人工智能技术来确保特斯拉汽车能够实时理解不同的驾驶情况,并据此实时地做出反应。人工智能正在实现非凡的成就:上周,AlphaGo 计算机程序的创造者报告了他们的软件已经学会了像一个伦敦本地人一样在纷繁复杂的地铁线路中导航。甚至就连白宫也来凑热闹了,他们在不久前放出了一份报告,旨在帮助美国为机器能像人类一样思考的未来做好准备。
但已经在研究和尝试解决人工智能的基本问题上工作了几十年的计算机科学家 Oren Etzioni 说:在人们可以或应该将世界交给人工智能接管之前,人工智能还有很长的路要走。Etzioni 目前是艾伦人工智能研究所(AI2)的首席执行官;该组织是由微软的联合创始人 Paul Allen 于 2014 年组建的,该组织的目标是开发人工智能的潜在好处——以及纠正好莱坞乃至其他人工智能研究者鼓吹的人工智能可能威胁人类种族的观念。
AI2 自己的项目可能并不非常疯狂——比如说他们有一个基于人工智能的学术研究搜索引擎 Semantic Scholar——但他们确实在解决推理(reasoning)等人工智能领域的问题,这将使得这一技术超越 Etzioni 所说的「只在一件事上做得非常好的狭隘的专家」。
Scientific American 在纽约最近的一场人工智能会议上对 Etzioni 进行了采访,在采访中他表达了自己对企业过于鼓吹人工智能的当前能力——尤其是被称为深度学习的机器学习技术——的担忧。这个处理过程需要将大型的数据集通过模拟人脑神经网络的网络,以便教会计算机学会自己解决特定的问题,比如识别模式或确定照片中存在的特定物体。Etzioni 还解释了他为什么认为十岁孩童比谷歌 DeepMind 的 AlphaGo 程序更聪明,以及为什么终将需要开发人工智能「卫士」程序来防止人工智能程序变得危险。
下面是经过编辑整理的采访内容:
Etzioni :一些人已经靠他们自己取得了一点点领先。我们已经在语音识别、自动驾驶汽车(或者说自动驾驶的有限形式)以及当然的围棋等领域取得一些实质性的进展。所有这些都是非常实质的技术成就。但我们该怎样解读它们呢?深度学习无疑是一项很有价值的技术,但在创造人工智能上,我们还有很多其它的问题要解决,其中包括推理(意味着计算机不仅能计算 2+2=4,还能进行理解)和获取可被机器用于创造语境的背景知识。还有另一个例子是自然语言理解。尽管我们已经有 AlphaGo 了,但我们还没有一个能够读懂和完全理解一段话或甚至一句话的程序。
Etzioni :当你有大量进行了标注以使计算机能理解其含义的数据和大量算力,以及需要找到那些数据中的模式的时候,我们可以发现深度学习是无敌的。再次说到 AlphaGo 的例子,该人工智能程序为了学会在不同情形下的正确走子而处理过 3000 万个棋盘局面。还有很多类似的情形——比如放射图像——其中图像需要被标记为有肿瘤或没有肿瘤,一个经过调节的深度学习程序可被用来确定其之前看过的图片中是否有肿瘤。深度学习方面还有很多的工作要做,而且确实,这是前沿的技术。
Etzioni :问题是对于智能,除了有大量可用来训练程序的情况,还有很多其它情况。比如学生准备 SAT 或 New York Regents exams(大学入学考试)这样的标准考试时所用的数据。他们可不能通过考察之前的 3000 万份标注了「成功」或「不成功」的考试来获得高分。这是一个更为复杂的交互式的学习过程。智能还涉及到从建议、对话的语境或阅读书籍中学习。但是同样地,尽管深度学习领域有这些惊人的进步,我们也还是不能得到一个能做到十岁孩童所能做的事情的程序,即:拿起一本书,读一章,然后回答有关读到的内容的问题。
Etzioni :我们艾伦人工智能研究所实际上已经将其作为一个研究项目了。去年我们宣布设立了一个 50,000 美元的奖给任何开发出了能够通过标准的 8 年级科学考试的人工智能软件的人。来自全世界的 780 支团队用了几个月的时间想要达到这一成就,但没有人能够得到超过 60% 的分数——即使那只是 8 年级考试中的多项选择题。这为我们目前所处的现状提供了一个现实的和定量的评估。
Etzioni:线索通常在语言之中。最成功的系统使用了经过精心调制的科学文本和其它公共源的信息,然后再使用经过了精心微调的信息检索技术进行搜索以定位每个多项选择题中最好的候选答案。比如,下列物体中最好的电导体是:塑料勺子、木叉子或铁拍子?程序非常善于配对,可以检测到电和铁或导体和铁比塑料和导体远远更常见地共同出现在文档之中。所以有时候程序可以通过这样的捷径找到答案。这差不多也就是孩子们靠已知的信息猜答案的方法了。没有任何系统的得分超过 60%,我可以说这些程序都是在使用统计进行有根据的猜测,而不是对问题进行仔细的推理。
Etzioni:在推动深度神经网络(模拟人脑设计的人工智能)的发展上,DeepMind 将继续作为领导者。这个特定的贡献是很重要的,但也只是在图结构(比如一个地铁网络)中互连的事实上实现推理的一小步。已有的符号程序就可以轻松地执行这样的任务,但这里的成就(已经发表在 Nature 上)是关于神经网络如何根据样本学习执行任务。整体上看,是 DeepMind 的一大步,却是人类的一小步。
Etzioni:这是一个非常吸引人的概念,实际上当我还是华盛顿大学的一位教授时的很多研究都是基于使用互联网作为人工智能系统的数据库的想法。我们开发了一个叫做开放信息提取(open-information extraction)的技术,它索引了 50 亿个网页,并且可以从其中提取句子并将其映射到机器可操作的知识上。该机器在抓取网页和所有句子上能力超强。问题是这些句子是在文本或图片中。我们人类的大脑有非常强大的能力——我们计算机科学家还没有破解这些能力——可以将那些行为映射到推理等等。为什么这种通用数据库和人工智能接口的想法仍然还是科学幻想呢?因为我们还没有搞清楚如何将文本和图像映射成机器可以用来像人类一样进行操作的东西。
Etzioni:真正的自然语言理解、人类智能的广度和通用性、我们既能下围棋也能过马路还能制作好看的煎蛋的能力——这种多样性是人类智能的标志,而我们今天做的只是开发在一件小事上做得非常好的狭隘专家。为了得到这个时间框架,我询问了美国人工智能协会(AAAI)的研究者:什么时候我们将实现在广义上和人类一样聪明的计算机系统?没人说那会在未来 10 年内发生,67% 的人说会在接下来 25 年或更往后,25% 的人说「永远不会实现」。他们可能错了吗?可能吧。但你该相信谁,难道是那些紧握行业脉搏的人?还是好莱坞?
Etzioni:我很难推断霍金、Elon Musk 这群人如此讨论人工智能的动机是什么。我猜测可能是黑洞讨论一段时间之后有点无聊了,黑洞是一个慢速发展的主题。我想说的是,在他们以及我极为尊重的比尔盖茨在讨论人工智能会变得邪恶或潜在灾难性后果的时候,他们总是插入「最终」或者「可能」这样的限定符。这我是同意的。如果我们讨论千年以后或无限的未来时,人工智能有可能为人类带来末日吗?当然是有可能的,但我认为这种对未来的讨论不应该分散我们对人工智能与就业、人工智能与武器系统这样真正问题的注意。而且「最终」、「概念上」这样的限定符在转译时往往会丢失
。
Etzioni:我对没有方向盘或刹车踏板这样的自动驾驶汽车没有多大兴趣。以我对计算机视觉和人工智能的了解,我对这种汽车相当不舒服。但我是复合系统的粉丝,例如,在你开车瞌睡时它能为你踩刹车。司机加上自动系统要比任何单独一个都更安全。然而这并不简单,将新科技融入到人类生活与工作中不是件容易的事。但是,我不确定融合新科技的解决方案就是让汽车做所有的事。
Etzioni:世界上顶级的科技公司聚到一起想这些事是非常好的思路。我想他们如此做是为了应对人工智能将掌管世界的担心。很多对人工智能的担心完全过分了。即使我们有自动驾驶汽车,也不是说 100 辆车就聚到一起说是要,「拿下白宫」。Elon Musk 这群人提到的风险即使不是百年之后也是数十年之后的事。而且,我们存在一些真正的问题:自动化、数字科技和一般的人工智能真的在影响就业场景,无论是机器人还是其他情景,这才是真正的担心。自动驾驶汽车、卡车将来是会大幅度的改进安全性,但也会影响大量依靠驾驶为生的工人。该新组织应该讨论的另一件事是人工智能可能造成的歧视。如果人工智能技术被用于处理贷款或信用卡应用,他们会以合乎法律与道德的方式来做吗?
Etzioni:例如你有一家银行,有处理贷款的软件项目,你也无法隐藏在软件的背后。说计算机这么做的并不能成为一个借口。即使计算机项目不使用种族或性别作为明确变量,它也可能有歧视行为。因为计算机项目会接触大量的变量、大量的统计数据,它可能找到邮政编码与其他变量之间的关系,这些关系会构成种族或性别变量的替代。如果它使用这种替代变量影响到决策,就会造成问题,而且人们难以检测或追踪缘由。所以我们提议的思路是人工智能卫士(AI guardian),也就是监测、分析基于人工智能的贷款处理程序的系统,从而保证程序随时间进化时能遵循法律、合乎道德。
Etzioni:我们正在向社区呼吁开始研究并建立这种东西。我认为如今可能有一些琐碎的存在,但这是目前一个很大的愿景。我们想用人工智能卫士的思路反击一直以来认为人工智能是邪恶的整体力量的普遍场景,就像终结者这样的好莱坞电影传播的那样。