Michael Jordan热文:人工智能革命尚未开启

作为机器学习领域的泰斗级学者,加州大学伯克利分校教授 Michael I. Jordan(他的学生包括邢波、吴恩达等人)一直对于当前人工智能的发展持谨慎态度。昨天,他发表的前瞻性文章再次引起了人们的热议。在文中,Jordan 指出了 AI 作为一门新兴学科所面临的挑战,同时也呼吁人们要以务实的态度对待近期的技术发展。

人工智能(AI)是这个时代的「咒语」。这个词组被大量技术人员、学者、记者和风险投资家等挂在嘴边。和很多从技术领域、学界扩散到公众认知的词组一样,对「人工智能」这一词组的使用也伴随着大量误解。但是这不是大众不理解科学家的典型案例,因为科学家也和大众一样糊涂。「我们的时代正在亲历堪比人类的硅谷智能的崛起,这太令人振奋了。」而正是这个观点吸引我们,也让我们害怕。并且,不幸的是,它分散了我们的注意力。

每个人在谈论现在这个时代时都会有不同的叙事方式。想想这个故事,涉及人类、计算机、数据和生死攸关的决策,但是聚焦点不是硅谷智能神话。我妻子 14 年前怀孕时,我们做了一次超声波检查。房间里有遗传学家,她指着胚胎心脏周围的白点,「它们是唐氏综合征的标志,这个胎儿的风险现在上升到了 1/20。」然后她告诉我们应该通过羊膜穿刺术检查胚胎是否有唐氏综合征引起的基因变化。但是羊膜穿刺术风险较大,手术过程中胚胎死亡的概率大约是 1/300。作为一名统计学家,我决定找出这些数字的来源。简单来说,我发现十年前在英国有一次统计分析,这些白点(反映出钙沉积)确实是唐氏综合征的标志。但是我还注意到我们测试时所使用的成像机器每平方英寸的像素比英国研究中使用机器多出数百个像素。我告诉遗传学家我认为这些白点有可能是「假正类」,也就是「白色噪声」。她说:「啊,这就解释了为什么几年前唐氏综合征诊断率开始上升,我们从那时候开始使用新机器。」

我们没有做羊膜穿刺术,几个月后一个健康的女婴降临人世。但是这个小插曲让我感到困扰,尤其是粗略计算后我意识到同一天全世界有数千人得到了唐氏综合征的诊断结果,很多人可能做了羊膜穿刺术,一些胎儿可能因此死亡。这样的事每天都在发生,直到问题被修复。关键是这个小插曲揭示的并不是我个人的医疗状况,而是利用不同地方和时间的变量和结果作为度量标准的医疗系统在其他地方和时间实施统计分析,并应用其结果。问题不只是数据分析,而是数据库研究者称作「provenance」(数据溯源)的东西,宽泛来讲,即数据来源、从数据中得到了怎样的推断,以及这些推断与现在的状况有多大关联。尽管训练有素的人可以基于个案分析解决这些问题,但是关键在于设计全球范围医疗系统的人能够在没有详细人类洞察的前提下做到这些。

我同时也是一名计算机科学家,这件事让我想到了在我的教育经历中没有构建此类全球范围的推断和决策系统所需要的原则——综合计算机科学和统计学,以及人类实用。我还想到此类原则的开发,不仅需要医疗领域的努力,还需要商业、运输业和教育行业的共同努力,其重要性至少与构建具备打游戏或具备运动技巧的酷炫 AI 系统持平。

不管我们近期是否能够理解「智能」(intelligence),我们都面临一个重要挑战,即把计算机和人类结合起来,来提升人类生活质量。尽管很多人认为这项挑战与创造「人工智能」相比不值一提,但是从更平淡的角度来看(并不持有过分敬畏),这也是创建工程的新分支。就像几十年前的土木工程和化学工程一样,这一新领域旨在控制几个关键想法的力量,安全地为人类带来新资源和新能力。土木工程和化学工程基于物理和化学,而这一新的工程领域将基于上个世界赋予全新内容的理念,如「信息」、「算法」、「数据」、「不确定性」(uncertainty)、「计算」、「推断」以及「优化」。此外,由于这一新领域的主要关注点在于数据来源和人类,因此其发展需要来自社会学和人类学的观点。

尽管其构造块已经开始出现,但将这些构造块组合起来的原则尚未出现,因此这些构造块现在只是临时堆砌在一起。

因此,就像在土木工程出现以前人类就可以建造房屋和桥梁一样,现在人类也在努力构建涉及机器、人类和环境的社会范围推断和决策系统。就像早期的建筑和桥梁有时会以无法预料的方式倒下,并且造成悲惨的结果,我们的一些早期社会范围推断和决策系统也已经出现严重的概念缺陷。

不幸的是,我们很难预测下一个出现的严重缺陷是什么。我们所丢失的是一个具备分析和设计原则的工程领域。

目前大众在提到这些问题时过分使用「AI」作为智力标配,这使得理性谈论人工智能技术的范围和结果变得困难。让我们更仔细地考虑「AI」过去、最近和历史上指什么。

今天大部分被称为「AI」的事物(尤其是在公共空间中)在过去几十年叫做「机器学习」(ML)。ML 是结合统计学、计算机科学和其他学习的知识,设计能够处理数据、进行预测和帮助决策的算法的算法领域。从对现实世界的影响来看,机器学习是真材实料,而不只是最近。确实,1990s,我们可以清楚地看到机器学习会发展成为具备大量的产业关联性,在世纪转换之际,具备前瞻性的公司(如亚马逊)已经在业务中使用机器学习,解决诈骗检测和物流链预测中重要的后端问题,构建创新性的消费者服务,如推荐系统。之后二十年随着数据集和计算资源的快速发展,很明显机器学习将很快掌控亚马逊,本质上是所有公司,决策与大数据联系紧密。新业务模型将出现。「数据科学」开始用于指代这种现象,这反映出机器学习算法专家需要与数据库和分布式系统专家合作来构建可扩展、鲁棒性机器学习系统,同时也反映出这些系统的更大社会和环境影响范围。

过去几年,这些观点和技术趋势被重新命名为「AI」。这值得审慎思考。

从历史角度来看,「AI」一词出现在 1950s 末,是对软硬件中具备人类智能水平实体的轻率称呼。我们将使用「human-imitative AI」来指代它,强调人工制作的智能实体应该看起来是在模仿人类,不是在物理层面,也是在心理层面。这主要是在学术界。而相关的学术领域,如运筹学、统计学、模式识别、信息论和控制论已经存在,并经常受启发于人类智能)和动物智能),我们可以认为这些领域聚焦于「低水平」的信号和决策。比如,小松鼠感知森林的三维结构并在树枝间跳跃的能力给这些领域带来启发。这些现在被称为「AI」的发展主要出现在与低水平模式识别和运动控制相关的工程领域,和寻找数据中的模式、进行理性预测、验证假设和决策的统计学领域。

1980s David Rumelhart 重新发现的「反向传播」算法现在被视为所谓的「AI 革命」核心,而它首次出现在 1950s 和 1960s 的控制论领域。其早期应用之一就是优化阿波罗飞船登月任务的推力。

虽然 20 世纪 60 年代出现了很大的研究进展,但可以认为这些成果都不是来自 human-imitative AI 的路线。更准确地说,正如在阿波罗飞船的案例中,这些思想通常隐藏在幕后,而研究者都聚焦于特定的工程挑战上。虽然这对于公众来说不可见,但在文档检索、文本分类、欺诈检测、推荐系统、个性化搜索、社交网络分析、规划、诊断学和 A/B 测试等领域的研究和系统构建取得了主要的成就,这些正是谷歌、Netflix、Facebook 和亚马逊的优势领域。

人们可能会简单地把这些领域归类为「AI」,而事实确实如此。这样的标签可能使优化学或统计学研究者感到惊讶,他们一觉醒来突然就变成了「AI」研究者。但除此之外,更重要的问题是,对这个含混不清的术语的运用妨碍了对当前智能化和商业化问题的清晰理解。

过去的二十年,AI 领域在业界和学界取得了很大成就,作为对 human-imitative AI 的补充,它们通常被称为「智能增强」(IA)。这里计算力和数据被用于创造增强人类智能和创造力的服务。搜索引擎可以看成是 IA 的一个例子(它增强了人类的记忆和现实知识),自然语言翻译也是(它增强了人类的交流能力)。基于计算的声音、图像生成可作为艺术家的调色板和创造力增强器。虽然这类服务可以很自然地涉及高级推理和思考,但目前并没有。它们大部分情况下执行多种字符串匹配和数值运算,以捕捉人类可利用的模式。

希望读者可以容忍这个缩略词的怪异性,我们来讨论对「智能基础建设」(II,Intelligent Infrastructure)这个学科的构想,其中计算网络、数据和物理实体的出现使得人类环境更加有支持性、更有趣和安全。这种基础建设正在诸如运输、医药、贸易和金融等领域出现,给个人和社会带来了深刻的影响。这些现象有时候会引发对「物联网」的讨论,但这通常仅聚焦于让「事物」接入互联网,而不是面对更加广泛的挑战,即让这些「事物」分析数据流来发现关于世界的事实,并在更高的抽象级别上和人类以及其它「事物」交互。

例如,回到我的个人经历,我们可能想象过居住在这样一个「社会范围医疗系统」,设置医生和人类体内外设备之间的数据流、数据分析流,从而帮助人类智能制定诊断决策、提供医疗服务。该系统可以整合人体细胞、DNA、血液检查、换奖、人口遗传学,以及药物和治疗的广泛科学文献的信息。它不只关注单个病人和医生,还关注所有人之间的关系,就像当前的医疗测试允许在一组人(或动物)身上进行实验,然后用于其他人的医疗上。这可以帮助维护关联性、数据溯源和可靠性,方式和当前银行系统聚焦于金融、支付领域的此类挑战一样。尽管我们可以预见到此类系统会出现很多问题,包括隐私问题、责任问题、安全问题等,但这些问题应该被视为挑战,而不是阻碍。

我们现在遇到了一个关键问题:我们正在研究的、经典的 human-imitative AI 是否是应对这些挑战的唯一最佳方法?事实上,近期的机器学习成功案例确实是 human-imitative AI 的成功,如计算机视觉、语音识别、游戏人工智能和机器人等。或许我们应该等待这些领域的进一步发展再做定论。这里有两点需要说明,尽管人们无法通过阅读新闻得知,但 human-imitative AI 的成功事实上是有局限性的——我们距离实现 human-imitative AI 的愿望还很遥远。不幸的是,在 human-imitative AI 发展中技术带来的兴奋(和恐惧)导致了行业的过度繁荣和媒体的追捧,这在其他工程领域是从未见到的。

其次,更重要的是,这些领域的成功既不足以解决重要的 IA 和 II 问题,也不是必需的。在充分性方面,有自动驾驶汽车。为实现这样的技术,我们需要解决一系列工程问题,而这些问题可能与人力资源(或人力资源缺乏)关系不大。未来的整个交通系统(一个 II 系统)可能会更像目前的空中交通管制系统,而不是目前数据收集阶段遇到的松散耦合的、前向的、包含缺乏注意力的人类驾驶员的系统。它将比当前的空中管制系统复杂得多,特别是在使用大量数据和自适应统计建模来进行精细决策时。在这种情况下,上述这些挑战才需要被摆在首位,而专注于模拟人类的人工智能可能会让我们分心。

至于必要性的论点,有时我们认为 human-imitative AI 包含了 IA 和 II,因为 human-imitative AI 系统不仅能够解决经典的 AI 问题(如图灵测试),同时也是解决 IA 和 II 问题最有可能的方式。这种论点并无历史先验。设想一下:人造木匠和泥瓦匠会发展出土木工程吗?研究化学工程是否需要创造一个人造化学家?还有更具挑战性的:如果问我们的目标是建立一个化学工厂,我们是否需要先创造一个人造化学家,然后让它研究出如何建造一座化学工厂?

一个相关的论点是:人类智能是我们所知的唯一一种智能,我们应该把它作为第一步来模仿它。但人类其实并不擅长某些推理——我们有失误、偏见和局限。而且关键的是,我们并没有演化出现代 II 系统必须面对的处理大规模决策的能力,也无法处理 II 语境中的那些不确定性。人们可能会争辩 AI 系统可以突破人类智能的限制,同时「纠正」其缺点,也可以扩展到任意更大的问题上。但这种思考现在还属于科幻小说的范畴——这种推测性的论点虽然在文学创作中很吸引人,但它不应成为我们在面临开始出现的重要 IA 和 II 问题时所参考的主要策略。我们需要根据自己的优势来解决 IA 和 II 问题,而不是仅仅将其当做是 human-imitative AI 方法的必然结果。

不难指出 II 系统中的算法和基础建设上的挑战并不是 human-imitative AI 研究的中心主题。II 系统需要管理快速变化和全局不连贯的分布式知识库的能力。这样的系统必须能够应对云端交互以执行及时、分布式的决策,并且它们必须应对长尾效应(即大多数数据掌握在少数人手中)。他们必须解决跨越管理和竞争边界的共享数据的困难。最后并且特别重要的是,II 系统必须将经济学思想例如激励和价格等引入统计和计算基础建设,从而让人类互相连接并为好的事物赋值。这样系统 II 不仅仅是提供一项服务,而是在创造市场,其中数据分析将生产者和消费者连接起来。并且这必须在演化中的社会的、道德的、合法的规范的环境下实现。

当然,经典的 human-imitative AI 问题仍然是很有趣的。然而,当前的通过搜集数据、部署「深度学习」基础建设和展示可以模仿狭隘定义的人类技能的系统来做 AI 研究(很少关注解释性理论的探索),倾向于从经典的 AI 问题中转移注意力。这些问题包括将意义和推理过程引入系统中以执行自然语言处理的需要,推理和表征因果性的需要,开发计算可追踪的不确定性表征的需要,以及开发规划和追赶长期目标的系统的需要。这些是 human-imitative AI 的经典目标,但在当前的「AI 革命」的喧闹声中,人们很容易忘记这些问题尚未被解决。

IA 也仍将停留在很基础的层面,因为对于可见的将来,计算机将无法匹配人类的能力来抽象地对现实世界场景进行推理。我们将需要人类和机器的计划周密的交互来解决最迫切的问题。并且我们将需要计算机来触发人类新级别的创造力,而不是取代人类的创造力(无论它是什么含义)。

「AI」这个词正是由 John McCarthy(曾任达特茅斯大学教授,之后在 MIT 工作),这很明显是为了和 Noebert Wiener 的崭露头角的研究议程区分开来(MIT 教授,比前者更早)。Wiener 曾经用「控制论」来划分他的智能系统范畴,该范畴更相关于运筹论、统计学、模式识别、信息论和控制论。另一方面,McCarthy 则强调了对逻辑学的应用。有趣的反转是,Wiener 智能研究议程成为了当今 AI 研究的主导,并运用着 McCarthy 的术语(这一事态是毫无疑问的,然而仅仅是暂时的;相比其他领域,AI 的主流摇摆得更快)。

但我们需要超越 McCarthy 和 Wiener 的特定历史视角。

我们需要意识到当前的 AI 的公共话题(聚焦于业界和学界的狭隘子领域)有一个风险,即对 AI、IA 和 II 系统的完整图景呈现的挑战和机会的盲视。

这个图景更少地和科幻小说幻想或超人机器的噩梦的实现相关,随着技术在人类日常生活中的影响越来越大,而更多地和人类理解和重塑技术的需求相关。此外,在这个理解和重塑的过程中,我们需要对各个层面进行讨论,而不仅仅局限在技术协调层面。只狭隘地局限于 human-imitative AI 也会阻止其他广泛观点的传播。

虽然产业界将继续驱动许多研发,学术界仍旧扮演着重要角色。不只是提供最具创新性的技术观点,学术界也会把计算与统计学科的研究人员与其他学科的研究者结合在一起,特别是社会科学、认知科学与人文学科的。这些学科的贡献与观点也是非常急需的,

另一方面,虽然人文和科学是我们前进的关键,但我们也不应假装我们所谈论的是规模和范围空前的工程努力以外的事——社会的目标是构建新的人工制品。这些人工制品应该遵从要求被制作出来。我们并不希望构建的系统是能够治愈疾病、提供新的交通方式和商业机会,最后却发现它们实际上并不实用——这样的错误会使人们的幸福和生存受到影响。在这一方面,正如我所强调的一样,数据聚焦和以学习为重点的领域尚未催生出一个新的工程学科。虽然这些领域令人兴奋,但它们还不能被视为构成工程学科。

而且,我们必须接受这样的事实:我们所目睹的是一个新的工程学分支的创立。术语「工程」通常被认为是一个狭义的概念——不仅仅是在学术上——它带有着冷酷无情的机械化联想,还有着失去人类控制的消极内涵,但一个新的工程学科也可以是我们想要的。

在如今这个时代,我们终于有机会设想一个历史上从未出现的新鲜事物——一个以人为中心的工程学科。

我拒绝为这个新兴的学科命名,但如果「AI」这个单词首字母组成的略词仍被用作未来这一方向的识别术语,我们就必须认真思考它所带来的严重限制了。我们需要扩大思考范围,减少炒作,并真正认识到未来的严峻挑战。

原文链接:https://medium.com/@mijordan3/artificial-intelligence-the-revolution-hasnt-happened-yet-5e1d5812e1e7


产业Michael Jordan人工智能观点
1
机器之心
机器之心

机器之心编辑

返回顶部