Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

乾树 刘晓坤编译

从规则推理到数据学习:人工智能该学习人类的思维方式吗?

近日,《Science》自由撰稿人 Matthew Hutson 在该期刊上发文,从婴儿学习、先验知识、因果推理和物理直觉的角度讨论了人工智能的当前现状,并以目前已被视为过时的基于规则的 AI 和当下最热门的基于机器学习的 AI 作为两个极端参考(人类智能处于过渡阶段),帮助人们思考人工智能的未来走向。


2 月的某个周六上午,穿着条纹衬衫和紧身裤的 3 岁孩童 Chloe,正在摆弄它的新玩具。她的爸爸,纽约大学的发展认知科学家 Gary Marcus 带回了一些粘连乐高积木的胶带。精通乐高的 Chloe 对此很感兴趣。

但她一直在向上搭。她可以借助胶带弄出别的花样吗?Marcus 建议靠着桌边开始搭建。十分钟后,Chloe 开始在墙上贴胶带。「我们最好在妈妈回来之前做完,」Marcus 一本正经地说,「她会不高兴的。」(剧透:墙面漆会受影响)

其实 Marcus 暗暗地在做一个实验。Chloe 会将她学到的知识应用到新的环境中去吗?过了几分钟,她就依墙搭建了一个乐高雕塑。「爸爸,我做到了!」她大叫着。Chloe 正在展示关于适应性的常识,这是计算机科学家一直在努力复制的一种智能。Marcus 认为,人工智能领域(AI)会从 Chole 搭积木这件事上学到一些经验。

机器学习研究员认为,基于海量数据训练的计算机可以学习任何东西,包括常识,而常识几乎没有任何编程规则。这些专家在我看来「有一个盲点,」Marcus 说,「这是一种社会学的东西,通常与物理学中的简单性原则相悖。」

他说,计算机科学家忽视了认知科学和发展心理学数十年来的研究,即人类有种本能:在出生时或儿童早期出现的直觉编程能力,这帮助我们像 Chloe 一样抽象并灵活地思考。

然而,许多计算机科学家都在急切地探索简单的人工智能的极限,即便他们在机器学习领域取得不少成就。「我认为,大多数机器学习研究员对于投入大量背景知识的做法持有偏见,因为从某种意义上说,我们认为这是一种失败,」科瓦利斯俄勒冈州大学的计算机科学家 Thomas Dietterich 说。

他补充道,计算机科学家也很喜欢简单,并且厌恶调试复杂的代码。麻省理工学院(MIT)的心理学家 Josh Tenenbaum 说,像 Facebook 和 Google 这样的大公司是促使人工智能向这个方向发展的另一个因素。这些公司最关心的是狭义定义的近期问题,例如网络搜索和人脸识别,一个「小白」AI 系统可以在大量数据集上进行训练并且成效显著。

但从长远来看,计算机科学家期望人工智能将承担更多更棘手的任务,这需要灵活性和常识。他们想创造解说新闻的语音机器人,可以解决城市交通拥堵的自动驾驶出租车,以及护理老年人的机器人。「如果我们想要创造一个像 C-3PO 一样与人类世界进行交互的机器人,」Tenenbaum 说,「我们将需要在更通用的环境中解决所有这些问题。」

一些计算机科学家已经在尝试。今年 2 月,麻省理工学院希望用工程术语来理解人类智能,并启动了 Intelligence Quest 研究计划,现已筹集数亿美元。研究员希望这些工作将 AI 发展到纯机器学习和纯本能之间的领域。它们会按照一些嵌入式规则启动,但在之后开始学习。Tenenbaum 说,「从某种意义上说,这就像古老的先天或后天争论,现在已经转化为工程术语。」

这项工作包括发现婴儿知道什么时候学到了什么,这是可以应用到机器学习上的经验。华盛顿西雅图艾伦人工智能研究所(AI2)首席执行官 Oren Etzioni 说,这需要很长时间。AI2 最近宣布斥资 1.25 亿美元来开发和测试 AI 的常识。Etzioni 说:「我们希望 AI 建立在人脑天生的表示结构上,但我们不了解大脑如何处理语言、推理过程和知识。」

不同的思维

随着时间的推移,人工智能(AI)已经从依赖编程规则和逻辑的算法转向机器学习机器学习的算法仅包含少量规则并提取训练数据反复训练来学习。人的思维处在中间位置。

最后,Tenenbaum 说:「我们正在认真对待人工智能最古老的梦想之一:你可以制造一台像人类一样发展智能的机器,从一个婴儿开始,像孩子一样学习。」

在过去几年里,AI 实现了翻译、诊断癌症并在扑克比赛中击败人类。但是对于每一场胜利,都存在一些愚蠢的错误。图像识别算法现在可以比人类更准地区分狗的品种,但有时它会把吉娃娃误认为是蓝莓松饼。人工智能可以用超人的技巧来玩经典的雅达利游戏,比如太空侵略者,但是当你仅留下一个外星人时,AI 就会莫名其妙地挂掉。

机器学习应该对这些成功和失败负责。从广义上说,人工智能已经从依赖许多编程规则(也称为良好的老式 AI 或 GOFAI)的软件转移到通过反复训练学习的系统。由于计算机硬件、大数据和神经网络算法的发展,机器学习取得了飞跃。

这些网络其实是通过简单的计算单元来模拟大脑中的神经元,在提取训练数据时创建更强或更弱的连接。

凭借 Alpha,Google 的 DeepMind 将深度学习推向了顶峰。每次去掉规则后,Alpha 似乎都会有所提升。2016 年,AlphaGo 击败了的人类围棋冠军。2017 年,编程规则更少的 AlphaGo Zero 轻松击败 AlphaGo。几个月后,一个更简单的称为 AlphaZero 的系统击败了 AlphaGo Zero,并且还掌握了国际象棋。

1997 年,基于规则的经典 AI,即 IBM 的 Deep Blue 击败了国际象棋冠军 Garry Kasparov。但事实证明,真正的国际象棋精湛技术不能根据规则得到,而是通过经验推理出的最佳走位。所以通过反复学习的 AlphaZero 可以击败 Deep Blue,以及当今最好的国际象棋程序和每个人类冠军。

然而像 Alpha 这样的系统显然不能学习常识。要在 21x21 而不是 19x19 的棋盘上下围棋,AI 必须重新学习。在 20 世纪 90 年代后期,Marcus 训练了一个接收输入数字并将其输出的网络,这是可想象的最简单的任务。

但他只用偶数来训练它。当用奇数进行测试时,网络崩溃了。它不能将学习从一个领域应用到另一个领域,就像 Chloe 开始将她的乐高横向建造时那样。答案不在于基于规则的 GOFAI。

根据显式的规则,例如「如果腿数= 4,尾巴=真,尺寸>猫」,一个孩子识别不出一条狗。识别更加细致,三条腿的吉娃娃不会活过 3 岁。人类不是一张白板,也不是硬连线的。相反,有证据表明我们有倾向性,帮助我们学习知识并进行推理。我们并没有遗传到一个技能包,只是靠着本能去学习。

哈佛大学心理学家 Elizabeth Spelke 认为,我们至少有四种「核心知识」系统,使我们在理解对象、行为、数量和空间方面领先一步。例如,我们是天生的物理学家,能够快速理解物体及其相互作用。有研究表明,出生 3 天的婴儿会将部分隐藏的棒的两端看做同一实体,这表明我们的大脑可能倾向于感知一致性物体。

我们也是天生的心理学家。在 2017 年的一项科学研究中,Spelke 实验室的研究生 Shari Liu 发现,10 个月大的婴儿可以推断出,当一个动画角色爬上一个更大的山丘形成一个形状而非另一个时,角色必须更倾向前者。Marcus 证明了 7 个月大的婴儿可以学习规则。

当听到不同于以往的三词短句(「ga ti ga」)的(「wo fe fe」)时,它们表现出惊喜。后来的研究表明,新生儿表现出类似的行为。

婴儿的本能可以帮助我们学习常识,迄今为止人工智能算法对此难以捉摸。

Marcus 给出了他认为应该融入 AI 的 10 种人类本能的最低清单,其中包括因果关系,成本效益分析和类别 vs 实例(狗 vs 我的狗)的概念。去年 10 月在纽约大学,他在 AI 是否需要「更人性化」的辩论中宣布他的清单,纽约大学计算机科学家、Facebook 首席人工智能科学家 Yann LeCun 也参加了此次辩论。

为了证明本能的重要性,Marcus 展示了一张羊羔下山的的幻灯片。他说,「他们不会进行百万次试验性学习,如果它们犯错,这会是一个问题。「LeCun 不同意多数发展心理学家的观点,认为婴儿可能会在几天内学会这种能力,如果是的话,机器学习算法也可能会这样。

他的坚持来自经验。他从事图像识别工作,并于 20 世纪 80 年代开始提出手动编码算法识别图片中的特征不再是必需的。三十年后,他被证明是正确的。批评者问他:「你既然可以编写出来,为什么还要去学会它?」他的回答是:编写很难,如果你不完全明白事情是如何运作的,那么你设计的规则可能是错误的。

但 Marcus 指出,LeCun 自己将 10 个关键本能之一嵌入到他的图像识别算法中:平移不变性,无论物体出现在视野中的哪个位置都能被识别出来。

平移不变性是卷积神经网络的特性,或者说它是 LeCun 成名的理论。在过去的 5 年里,它们已经成为图像识别和其他 AI 应用的核心,并引发了当前深度学习的热潮。

LeCun 告诉 Science,平移不变也可以通过更好的通用学习机制习得。他说,「很多这些特性会因为了解这个世界如何运作而自发地出现。」加拿大多伦多大学深度学习的先驱 Geoffrey Hinton 对此表示赞同。

Hinton 说:「大多数相信本能知识的人有一种毫无根据的观点,即从头开始学习数十亿参数很困难。但我认为深度学习最近的进展表明它实际上非常容易。」

关于将人工智能置于纯学习与纯本能之间的争论将继续。但是这个问题掩盖了一个更实际的问题:如何设计和编码这种混合机器。尚不清楚如何将机器学习及数十亿个神经网络参数与规则和逻辑结合起来。

也不清楚如何确定最重要的本能并灵活编码它们。但是这并没有阻止一些研究员和公司去尝试。

位于澳大利亚悉尼的新南威尔士大学的机器人实验室装修整洁,看起来像客厅和厨房,冰箱里装满了 James Boag 的啤酒。计算机科学家 Michael Thielscher 解释说,该实验室是国内机器人的测试平台。他的团队试图赋予丰田护理机器人(HSR)两种人性化的能力。该机器人有一条机械臂和一个脸部屏幕。

首先,他们希望对 HSR 进行编程,将大问题分解为更小、更简单的问题,就像一个人将解决方案分成几个步骤一样。其次,他们想让机器人像人类一样能够理解信念和目标。如果一个人要求它拿起一个红色杯子,但是只看到一个蓝色杯子和一个红色碟子,HSR 会如何回应?

到目前为止,他们的软件显示出一些人性化的能力,包括选择蓝杯而不是红盘。但是更多的规则被编入系统,这远多于 Thielscher 想要的。他的团队不得不告诉他们的 AI,杯子通常比红色更重要。理想情况下,机器人将具有社交能力,可以快速学习人类的偏好。

其它的研究员正在努力为他们的人工智能注入像婴儿一样的天生的直觉。伦敦的 DeepMind 的计算机科学家开发了称为交互网络的东西。它们加入了一个对物理世界的假设:离散对象普遍存在并且具有不同的相互作用。

如同婴儿可以很快将世界分解为交互的实体,这些系统很容易学习对象的属性和关系。他们的结果表明,交互网络可以比一般的神经网络更准确地预测绳子下落和球在框中弹跳的行为。

机器学习的胜利,2017 年 AlphaGo 击败围棋冠军柯杰。

Vicarious 是位于加利福尼亚州旧金山的一家机器人软件公司,该公司结合所谓的模式网络(schema network)将人工智能推向巅峰。这些系统也假设对象和交互的存在,但也试图推断连接它们的因果关系。通过大量的学习,该公司的软件可以像人类一样根据预期的结果制定计划。(我不想让我的鼻子痒,抓它可能会有帮助。)

研究人员将他们的方法与最先进的神经网络在 Atari 游戏 Breakout 中进行了比较,玩家通过一块板来转移球并敲出砖块。因为模式网络可以了解因果关系(例如,无论速度如何,球碰到砖头都会敲掉砖块这一事实)当游戏发生变化时,也不需要额外的训练。

你也可以移动目标砖块或让玩家拨动三个球,但是模式网络仍然在游戏中占上风。其它网络挂掉了。

除了我们天生的能力之外,人类也从大多数 AI 没有的东西中受益:身体。为了帮助软件认知世界,Vicarious 将软件嵌入到智能体中,因此它可以探索虚拟环境,就像婴儿可能会通过倾倒一组积木块来学习重力一样。今年 2 月,Vicarious 提出了一个系统,通过一个微小的虚拟角色穿越地形来寻找 2D 场景中的有界区域。

正如它探索的那样,该系统学习了遏制的概念,它比标准的被动学习场景的图像识别卷积网络能够更快地理解新的场景。概念(普适的知识)对常识至关重要。

「在机器人学中,机器人能够推断新情况是非常重要的,」Vicarious 的联合创始人 Dileep George 说。今年晚些时候,该公司将在仓库和工厂进行试点测试,帮助机器人在打包运输前提取、组装并标注物体。

最具挑战性的任务之一是如何灵活编码本能,以便 AI 可以应对一个并不总是遵循规则的混乱世界。例如,自动驾驶汽车不能指望其他司机遵守交通法规。为了应对这种不可预测性,加州斯坦福大学的心理学家和计算机科学家 Noah Goodman 帮助开发了概率编程语言(PPL)。

PPL 将计算机代码的严密结构与概率论结合起来,类似人类逻辑的方式,但同时也考虑到了不确定性:

如果草地潮湿,可能会下雨,但也许有人打开了洒水装置。重要的是,PPL 可以与深度学习网络相结合,以融入拓展学习。

在 Uber 工作的时候,Goodman 和其他人发明了这种称为 Pyro 的「深度 PPL」。该出行公司正在探索 Pyro 的用途,例如调派司机以及在道路施工和比赛日期间自适应规划路线。Goodman 说,PPL 不仅可以推理物理状态和物流,还可以推断人们交流及应对棘手问题的表达形式,如夸张、讽刺。

Chloe 可能在十几岁之前都不会讽刺,但她对语言的天生诀窍已经很了解了。在 Marcus 的公寓里,她拿出一对卡住的乐高积木。「爸爸,你能帮我解开这个吗?」她的父亲没有帮她改正创造的义务。词汇和想法就像乐高积木,各部件很容易混搭,并且在世界范围受到热切的尝试。

在 Chloe 厌倦在墙上搭积木之后,一个年龄稍长、经验稍稍丰富的智能系统有机会尝试它:她 5 岁的哥哥 Alexander,很快搭建了一个更高大的乐高建筑。

「他做的很好,」Marcus 如此说。「他没有进行一千万次乐高粘连试验来评估建筑的完整性,他正在采取他所知道的有关物理学的知识,并做出一些推论。」

Marcus 显然很骄傲,不仅对他的子女的能力,而且对他们论证了关于我们如何了解这个世界的理论,以及 AI 如何学习。搭完乐高后,Chloe 和 Alexander 跳进他们父亲的怀抱。当他转起来时,他们高兴地尖叫起来,这为他们提供了另一个机会来调整他们对物理学的直观感官,以及乐趣。

原文链接:http://www.sciencemag.org/news/2018/05/how-researchers-are-teaching-ai-learn-child

产业Science人工智能
2
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

阿尔法围棋技术

阿尔法围棋是于2014年开始由英国伦敦Google DeepMind公司开发的人工智能围棋程序。AlphaGo是第一个打败人类职业棋手的计算机程序,也是第一个打败围棋世界冠军的计算机程序,可以说是历史上最强的棋手。 技术上来说,AlphaGo的算法结合了机器学习(machine learning)和树搜索(tree search)技术,并使用了大量的人类、电脑的对弈来进行训练。AlphaGo使用蒙特卡洛树搜索(MCTS:Monte-Carlo Tree Search),以价值网络(value network)和策略网络(policy network)为指导,其中价值网络用于预测游戏的胜利者,策略网络用于选择下一步行动。价值网络和策略网络都是使用深度神经网络技术实现的,神经网络的输入是经过预处理的围棋面板的描述(description of Go board)。

人脸识别技术

广义的人脸识别实际包括构建人脸识别系统的一系列相关技术,包括人脸图像采集、人脸定位、人脸识别预处理、身份确认以及身份查找等;而狭义的人脸识别特指通过人脸进行身份确认或者身份查找的技术或系统。 人脸识别是一项热门的计算机技术研究领域,它属于生物特征识别技术,是对生物体(一般特指人)本身的生物特征来区分生物体个体。

规划技术

人工智能领域的「规划」通常是指智能体执行的任务/动作的自动规划和调度,其目的是进行资源的优化。常见的规划方法包括经典规划(Classical Planning)、分层任务网络(HTN)和 logistics 规划。

机器人技术技术

机器人学(Robotics)研究的是「机器人的设计、制造、运作和应用,以及控制它们的计算机系统、传感反馈和信息处理」 [25] 。 机器人可以分成两大类:固定机器人和移动机器人。固定机器人通常被用于工业生产(比如用于装配线)。常见的移动机器人应用有货运机器人、空中机器人和自动载具。机器人需要不同部件和系统的协作才能实现最优的作业。其中在硬件上包含传感器、反应器和控制器;另外还有能够实现感知能力的软件,比如定位、地图测绘和目标识别。之前章节中提及的技术都可以在机器人上得到应用和集成,这也是人工智能领域最早的终极目标之一。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

卷积神经网络技术

卷积神经网路(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网路由一个或多个卷积层和顶端的全连通层(对应经典的神经网路)组成,同时也包括关联权重和池化层(pooling layer)。这一结构使得卷积神经网路能够利用输入数据的二维结构。与其他深度学习结构相比,卷积神经网路在图像和语音识别方面能够给出更好的结果。这一模型也可以使用反向传播算法进行训练。相比较其他深度、前馈神经网路,卷积神经网路需要考量的参数更少,使之成为一种颇具吸引力的深度学习结构。 卷积网络是一种专门用于处理具有已知的、网格状拓扑的数据的神经网络。例如时间序列数据,它可以被认为是以一定时间间隔采样的一维网格,又如图像数据,其可以被认为是二维像素网格。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

深蓝(超级电脑)技术

深蓝是由IBM公司开发的一款专门用于分析国际象棋的超级计算机。1996年2月,深蓝首次挑战国际象棋世界冠军俄罗斯选手卡斯巴罗夫(Garry Kasparov),但以2: 4落败。1997年5月,改良后的深蓝在比赛中击败卡斯巴罗夫,成为第一个在标准比赛时限内击败国际象棋世界冠军的电脑系统。比赛结束后,IBM公司退休了深蓝。

暂无评论
暂无评论~