专访Michael Jordan:AI的分布式决策与不确定性

今年四月,Michael Jordan 在 Medium 上发表了一篇名为《人工智能:革命尚未到来》的文章。文章指出,如今「AI」这个概念被各界人士当做包治百病的万金油,大肆使用,但不同人在使用「AI」一词时,指代的其实是不同的学科领域,常见的有三类:

一,拟人 AI。最近深度学习的一系列成功案例,包括计算机视觉语音识别、游戏人工智能等,都属于这一范畴。

二,增强人类能力的 IA(Intelligence Augmentation)。能够增强人类记忆能力的搜索引擎和增强人类沟通能力的机器翻译都属于此类。

三,智能基础设施 II(Intelligent Infrastructure)。这一领域旨在利用计算机技术让人类生活的环境更加安全、有趣,从基础设施的角度为人类生活提供支持。「物联网」是这一类概念的早期版本。

Jordan 认为,概念的模糊和混淆会带来一系列问题,例如试图用同一种思路提供解决方案,而枉顾其思路与大多数需要解决的问题范式有所冲突。

如今吸引了大规模神化与误解的「拟人 AI」思路真的适合解决所有问题吗?结构工程在复杂的地形上架构桥梁的思路并非「设计一个能计算桥梁承重的拟人 AI 工程师」。化学工程生产出诸多化工产品的思路也不是「设计一个拟人 AI,再让它帮助我们建造化工厂」。由此类推,自动驾驶的恰当思路是「设计一个拟人 AI 司机」吗?自动客服的最佳思路是「设计一个拟人 AI 话务员」吗?

当我们辨明了万金油 AI 中所包含的各类思想后,会不会有不一样的答案?

九月,Jordan 再次来到中国,进行了一系列的学术演讲。我们在 Boolan 主办的「全球机器学习技术大会」(ML-Summit 2018)上对 Jordan 进行了采访,从「AI 分类法」出发,聊了聊「不拟人的 AI」是什么,能够解决什么问题。

机器之心:为什么要将 AI 的概念划分成不同的三类?

Michael Jordan:提出拟人 AI、IA 和 II 的概念,并不是试图给「AI」建立一个不重不漏的分类,而只是想要对这几个经常被混为一谈的概念进行区分。在谈论这件事的时候,我跳出了「学者」角色,尝试以一个对业界出现的新用例感兴趣、对不同概念的历史发展感兴趣的人的身份来进行思考。

我认为在付出艰巨努力之前,首先要确定我们面对的「重大问题」究竟是什么。是建立一个能够和人以自然语言进行沟通的系统?还是获得一个能够拟人活动的机器人?还是试图建立一个市场,能够让更多的商品、服务、信息以更快的速度流通?在这个世界上,某些问题亟待解决。只有在厘清了基本概念及其差异之后,才能更好地确定你想解决哪类问题。

除此之外,很多人在单纯从「拟人 AI」角度出发设计基于机器的系统时并未考虑其社会影响,而只是在系统产生影响后思考对策。如果设计者能够从更多的角度思考,那么他们会更早地发现系统正在制造问题,甚至从一开始就避免问题的出现。

机器之心:相比于拟人 AI,您对 II 似乎有更为浓厚的兴趣,能否给出一个更为具体的 II 的定义?

Michael Jordan:II,或是说智能基础设施,某种程度上就是过去大家所说的「物联网」。物联网已经是一个有些历史的概念了,但是参与到这一类技术发展的主体成员还是网络研究者和工程师。他们关注的问题只有一个:给每一样东西赋予一个 IP 地址,让它可以连接到某个网络上。然而对 II 的讨论并不应该停留在「联网」本身,II 所关注的问题更为广泛:在「联网」完成后,如何在不同事物之间进行数据传递、如何利用利用数据进行推理,并将所有事物视为一个整体建立起基于数据流的知识网络,才是问题的核心所在。

机器之心:II 系统能否像现在的 AI 系统一样,从输入、输出的角度看待呢?

Michael Jordan:与其从输入输出的角度思考问题,我更多希望从「谁是这个系统中的参与者?他们如何参与到这个系统中?」的角度进行思考。

现阶段,一个并不完整的有限 II 系统的例子是网约车。

你可以看到,这个系统本身并非由一个「超级智能」控制,它只是一个双边交通系统,让司机和乘客从不同的 App 登录,让需求方的乘客看到供给方的司机情况然后出价。和普通的市场不同的地方在于,它的适应性更强——因为它有更多的数据,更清楚双边的偏好,然而它的局限性也非常大,现在只能解决一小部分出行问题。

但是想象一下,如果市场互动能够和推荐系统相结合,又是不一样的故事。推荐系统是历史上最重要的机器学习应用之一,但是如果它不能在市场中扮演角色,其作用始终有限。举一个推荐系统和市场互动的例子:在餐厅老板和食客这对双边关系中,如果我作为一名食客,能够在晚餐时段走在街上打开一个 app,表示我有兴趣寻找餐厅,app 知道我的地理位置、口味,把信息告诉相关的餐馆「这里有一个潜在客户」,仍有余位的餐馆学习我的基本情况后,可以用折扣等方式对我「竞价」。如是这般,一个双边市场就形成了,我可以选择接受或拒绝,而餐厅从我的行为中变得更了解我,如果我再多去几次这家餐厅,我们就建立起了一种联系。

在这个过程中,我,作为一个食客很开心:因为我拿到了折扣,吃到了合口味的食物,并且与餐厅建立了好的联系。餐厅老板也很开心:因为他们得以充分利用餐厅的资源,并且招徕到了喜欢这家餐厅的客户。这个过程中并不存在一个复杂的、超级智能的中枢系统,而只有数以百万计的实体,每天进行巨量的数据交换和分布式的决策。饮食、娱乐、交通……城市里的任何服务都能以这种形式进行。

机器之心:分布式的决策系统和单线程决策系统有什么区别?

Michael Jordan:人类是「单线程生物」,我们自己做出的决策大多是单一决策。而只有当存在稀缺性的时候,分布式决策才会比多个单一决策更加困难。

解决任何现实世界的问题都要考虑稀缺性。例如,道路容量是有限额的,如果我将所有从 A 地点前往 B 地点的人都指向同一条「最优路径」,无疑这条路会堵车,不再是一条「最优路径」。再比如,因为我没有无限量物流车(即使我有,这也会变成超出道路容量的问题),所以派送包裹时总会有先后顺序。这时,我解决排序的方式并不是设计一个寻找「最优解」的中心算法,而是让大家以竞价的方式表达自己的偏好。

注意,我们并非在讨论建立一个简单的经典市场。而是一个能够允许数据充分流动、偏好充分表达的市场。因此,经济学家会对这个市场异常感兴趣,因为当市场中的决策者手握大量信息,他们可以做得更好。

机器之心:现有拟人 AI 技术的进步会给 II 带来哪些影响吗?

Michael Jordan:其实,大部分现存的市场模型并不要求每个身处其中的智能体具有高级的智能,而只要求他们做简单的决策。回到网约车的例子里,网约车中的司机和乘客都是具有高级智能的人,但是在系统里他们并不需要大量动用智慧,他们只需要表达需求(我要去机场)和偏好(我愿意加价调度)就可以了。

但是,当每个智能体都拥有更多信息,并且能够根据这些信息更可靠、更有逻辑地运作时,市场会变得更高效、更好。比如,在商品市场或者股票交易市场上,参与者的「智慧」就得到了更多的利用。

因此,我们也可以想象,那些经典的、拟人 AI 在一些有趣的市场中也能够成为很好的玩家。拟人 AI 和 II 的概念就融合在一起了。

对于视觉问题、语音问题来说,我们有如此及大量的标注数据,所以用监督学习解决这个问题是合适的。任何其他有标注的高维统计分析问题也可以用监督学习的思路解决。无论最终目标是 拟人 AI 还是 IA 还是 II,解决方案都会是一个监督学习、无监督学习、Bandit 算法等等的组合。

并非说 II 是优于 AI 的一个概念,而是当人人都「全力投入 AI」却不能准确描述他们所投入的究竟是什么,对一些基本概念做区分有助于人们厘清自己的思路。

机器之心:在您看来,当前公众缺乏对 II 的关注,那么从研发角度呢?

Michael Jordan:研发角度的关注重点也有所偏颇。

我并不担心业界巨头们,大公司层面一直不缺少相关研究。但是有非常多的小公司,仍然认为他们能够通过提出一种新型的智能 AI 设备就解决某个存在已久的大问题。但是可以预见的是,在大多数情况下,这并不会发生。

当然,对于硬件公司来说,鼓励更多人在更大量的数据上运行各式各样的 AI 算法是符合他们的利益的做法:因为无论算法是否有效,只要卖出硬件他们就能够挣钱。这并不是一件坏事,但人们需要清楚,许多硬件的卖点不是「他们能够立刻解决当前的问题」。

想要让电脑对真实世界进行高级抽象然后得出结论是非常、非常艰巨的任务。我并不认为我们能够在可见的未来里实现这一点。然而我并不认为计算能力是当前技术发展的瓶颈。事实上如今我们每个人手上的算力都非常可观:甚至当下的大部分生产侧的应用程序都能够运行在你的笔记本电脑上。即使一个商业模式依赖对大量数据的快速处理,大部分也能够通过云实现,只有自动驾驶等非常少部分的应用需要大量终端计算力。

另一方面,对于学界来说,我也并不十分担心。学界的风向变化是非常快的,大家对新话题总是迅速燃起兴趣,又轻易感到厌倦。深度学习的一个好处是吸引了非常多学生进入计算机科学领域,这是好事:当他们进入这个领域,他们不会停步于这一个小范畴,而是会在更广泛的问题空间里进行探索。

机器之心:您所关注的 II 问题有许多与经济学问题相似的设定,这类问题和现有机器学习算法有哪些差异?

Michael Jordan:现有的机器学习通常假设有一个玩家。而和经济学相关的算法,例如许多和拍卖、竞价的算法中都有许多个参与者。参与者会掌握部分其他参与者的信息,并且会进行策略性的思考,进行多回合的假设最终确定如何采取行动。

但是这两类算法之间并不会有本质的差异,因为人类世界的基本算法是简单且相通的,梯度下降的概念、矩阵算法的概念、概率模型的概念,都被应用于解决各领域问题。例如鞍点问题,也在经济学领域中存在:经济学家总是试图找到均衡(equilibrium),即市场中具有竞争关系的双方都无法获得更优的福利。但是因为双方处于竞争关系,在均衡点二者的优化方向是不同的,换言之,这不是一个「规避鞍点」,而是一个「寻找鞍点」的故事。有专门的一类研究,就聚焦在「以寻找鞍点为目标的梯度下降」。

现在二者看似有很大的差异,是因为现在的机器学习算法,例如计算机视觉算法,还只是单纯的模式识别。而真正的计算机视觉算法应该是一个尝试学习其所处环境的实体。它能够移动、寻找资源以实现自己的目的。我们的视觉算法正在朝向这个方向发展,在过程中越来越接近经济相关的算法。

机器之心:机器学习在今后的发展路径上有哪些需要研究者和应用者特别注意的地方?

Michael Jordan:不确定性。机器学习本质上就是统计学与计算机科学概念的结合,而今值得担忧的是,在结合的过程中,有一些因素未被考虑到或是说未得到足够的重视,比如不确定性。

大众对于不确定性缺乏关注。而研究者虽然清楚不确定性的存在,仍然缺乏对其足够的关注:他们简单地假定,当数据足够大、标签足够多的时候,不确定性会逐渐消失,系统给出的就是正确答案。

这就是现在大部分视觉问题的解决方案,当你有如此多标注数据的时候,不确定性出于某些未知原因逐渐消失。但这并不是一个典型的解决方案,我们无法消除世界上大部分问题的不确定性。世界上不可衡量的因素太多了,有众多问题需要在存在巨大不确定性的情况下得到解答。例如,虽然医生并不确切知道患者体内究竟发生了什么,他仍然要在这种情况下根据患者表现出来的症状为其选择治疗方案。

想要把不确定性纳入考量,算法需要做出许多额外的假设。例如,boostrap 就通过重复地从数据中抽样获得一些关于不确定性的估计,但是抽样过程需要花费大量的算力。

还有一些贝叶斯派的方法,你对最初的不确定性作出假设,而后关注它的变化。但这也是计算非常昂贵的算法。

因此,和不确定性相关的研究工作里,有一大部分工程性的研究工作就是在尝试如何用尽可能便宜的方法引入不确定性。以及在不能对不确定性作出准确预估的时候,起码给出明确的声明:算法的置信度是多少,如果算法不足够好,那么给出更大的置信区间,以便作出更保守的估计。

传统地看,统计学里不确定性无处不在,其核心就是清楚错误的存在、明确来源并进行管理。而传统的计算机科学是不存在不确定性的。机器学习研究者开始将不确定性的思想引入计算机科学学科,算法有了训练与测试阶段,人们开始考量随机性对两个阶段的结果产生哪些影响。但是,从「文化」的角度上来看,整个领域仍然缺乏对不确定性的关注。

机器之心:您近期多次在公开演讲中提到高性能分布式框架 Ray,能否介绍一下 Ray 的设计思路和主要特点?

Michael Jordan:对于更好的框架和语言的需求的确一直在上升。当我年轻时,我们有 Fortran,有 C 语言,他们比之前一代的编程语言有了显著的提升,并且带来了高效的发展。但是想要在多线程的分布式平台上使用这样的语言变得越来越痛苦,它们并不适合数据分布在不同地方的模型。

这一次深度学习的成功背后,很大一部分要归功于 Hadoop、Spark、TensorFlow 这些工具,它们让分布式模型变得易用。但这也只是针对当前的需求而向分布式框架迈进的第一步。

Ray 在尝试更进一步,我们试图把问题中与分布式相关的问题抽取出来:一个算法运行在一台、五台还是上百台计算机上需要进行哪些调整不应该是算法设计者需要考虑的问题。

这是一个非常有趣、有价值的问题,但不应该让大多数工程师为此花费大量精力,底层工程师思考这个问题就够了。Ray 旨在提供一个底层框架,能够高效利用你所有的计算资源,让进程在不同处理器之间切换,并保持整个过程的鲁棒性和一致性。

它关注的不是「模式识别」这类 AI,而是支持决策类 AI,比如强化学习、Bandit 算法以及其他很多搜索算法的运行。

机器之心:决策类 AI 相比于识别类 AI 需要的算力支持有何不同?

Michael Jordan:相比于模式识别类的 AI 算法,决策类 AI 更需要异构负载(heterogeneous workload)。模式识别类的任务通常很容易切分成子任务,每一个子任务的大小、需要的资源种类都基本相同。常见的模式是,把数据切分成小块,让每个小块在不同的计算单元上进行同样的求导运算,它们耗时大体相等,等所有运算完成后,再把它们的结果加起来。Hadoop 和 Spark 之下的 MapReduce 范式,正是这样的范式。

但是对于决策类的问题来说,问题切分成很多个小的搜索问题之后,每部分的耗时都是未知的:你需要进行尝试,有一些通路可以迅速被排除,另一些则需要很多步的尝试才能判断。每个进程需要一直搜索到确定为止,而在这个进程停止之后,系统需要为这一个特定处理器分配一项新任务。这是一个动态任务图,也就是所谓的异构负载。这就是 Ray 试图解决的问题。

机器之心:在 Ray 之外,您还关注哪些其他研究方向?

Michael Jordan:研究者选择课题与艺术家、音乐家选择创造主题其实是一样的。我对于万事万物都很好奇,喜欢学习一切,因此我保持开放的心态,与大量的人交谈,思考技术的潮流正在将世界带向何方。然后你会发现一些新的思考方式、一些尚未得到关注的领域,一些让你相信假以时日一定会得到有趣的发现的问题。所以你进行尝试、与其他人公开探讨,尝试激起他们的兴趣,尤其是你的学生的兴趣。

我经常在公开场合谈论 Ray,是因为我希望更多人加入进来,在更多的使用场景下测试它的能力。除此之外,我还对错误发现率(false discovery rate) 十分感兴趣,尤其是在线错误发现率。这一类算法想要实现的目标是,当算法在运算的任何阶段被中止,都能保证当前作出的决策大部分是好的决策。

我也对很多数学相关的工作感兴趣。比如梯度下降算法以及搜索算法等的几何学研究。

梯度下降算法从数学角度来看,就是试图在参数空间内进行运动。这类运动有哪些动态性质?有哪些几何性质?其动态性质与几何性质之间又是如何相互影响?我对这些问题都很感兴趣。

鞍点问题就是这类问题中的典型。梯度下降算法经常长时间卡在鞍点附近,因此,如何设计参数优化算法以避免在鞍点停留,如何利用鞍点的性质找到优化的方向,都是我们正在研究的问题。

数学类问题吸引我的地方在于有一个良性循环的社区:你在他人的工作之上开展自己的工作,提出猜想、进行证明、得到定理,而在未来,你的工作又会被之后的学生做为探索的起点。

十年之后,人们不会再谈及我,我的时代已经过去。我不认为当今有哪些研究者的工作能够像爱因斯坦的成果一样,有延续百年的生命力。我们的贡献要小一些,但是我希望它们足够扎实,能够让十年后的其他研究者愿意在我们的成果之上继续前行。

产业分布式机器学习人工智能Michael I. Jordan
3
相关数据
英特尔机构

英特尔是计算创新领域的全球领先厂商,致力于拓展科技疆界,让最精彩体验成为可能。英特尔创始于1968年,已拥有近半个世纪产品创新和引领市场的经验。英特尔1971年推出了世界上第一个微处理器,后来又促进了计算机和互联网的革命,改变了整个世界的进程。如今,英特尔正转型成为一家数据公司,制定了清晰的数据战略,凭借云和数据中心、物联网、存储、FPGA以及5G构成的增长良性循环,提供独到价值,驱动日益发展的智能互联世界。英特尔专注于技术创新,同时也积极支持中国的自主创新,与产业伙伴携手推动智能互联的发展。基于明确的数据战略和智能互联全栈实力,英特尔瞄准人工智能、无人驾驶、5G、精准医疗、体育等关键领域,与中国深度合作。面向未来,英特尔致力于做中国高价值合作伙伴,在新科技、新经济、新消费三个方面,着力驱动产业协同创新,为实体经济增值,促进消费升级。

https://www.intel.com/content/www/us/en/company-overview/company-overview.html
相关技术
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

调度技术

调度在计算机中是分配工作所需资源的方法。资源可以指虚拟的计算资源,如线程、进程或数据流;也可以指硬件资源,如处理器、网络连接或扩展卡。 进行调度工作的程序叫做调度器。调度器通常的实现使得所有计算资源都处于忙碌状态,允许多位用户有效地同时共享系统资源,或达到指定的服务质量。 see planning for more details

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

模式识别技术

模式识别(英语:Pattern recognition),就是通过计算机用数学技术方法来研究模式的自动处理和判读。 我们把环境与客体统称为“模式”。 随着计算机技术的发展,人类有可能研究复杂的信息处理过程。 信息处理过程的一个重要形式是生命体对环境及客体的识别。其概念与数据挖掘、机器学习类似。

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

推荐系统技术

推荐系统(RS)主要是指应用协同智能(collaborative intelligence)做推荐的技术。推荐系统的两大主流类型是基于内容的推荐系统和协同过滤(Collaborative Filtering)。另外还有基于知识的推荐系统(包括基于本体和基于案例的推荐系统)是一类特殊的推荐系统,这类系统更加注重知识表征和推理。

机器翻译技术

机器翻译(MT)是利用机器的力量「自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)」。机器翻译方法通常可分成三大类:基于规则的机器翻译(RBMT)、统计机器翻译(SMT)和神经机器翻译(NMT)。

梯度下降技术

梯度下降是用于查找函数最小值的一阶迭代优化算法。 要使用梯度下降找到函数的局部最小值,可以采用与当前点的函数梯度(或近似梯度)的负值成比例的步骤。 如果采取的步骤与梯度的正值成比例,则接近该函数的局部最大值,被称为梯度上升。

置信区间技术

在统计学中,一个概率样本的置信区间(Confidence interval),是对这个样本的某个总体参数的区间估计(Interval Estimation)。置信区间展现的是,这个总体参数的真实值有一定概率落在与该测量结果有关的某对应区间。置信区间给出的是,声称总体参数的真实值在测量值的区间所具有的可信程度,即前面所要求的“一定概率”。这个概率被称为置信水平。举例来说,如果在一次大选中某人的支持率为55%,而置信水平0.95上的置信区间是(50%, 60%),那么他的真实支持率落在50%和60%之区间的机率为95%,因此他的真实支持率不足50%的可能性小于2.5%(假设分布是对称的)。

监督学习技术

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

暂无评论
暂无评论~