Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

AI终极问题最后一公里——机器意识,UCL汪军教授谈克服深度学习根本性问题

1 月 11 日,在机器之心 AI 科技年会上,伦敦大学学院(UCL)计算机系教授、上海数字大脑研究院联合创始人、院长汪军发表主题演讲《机器意识人工智能终极问题 “最后一公里”》。在演讲中,他主要介绍了机器学习深度学习的当前现状、解决方案以及未来发展。

以下为汪军教授在机器之心 AI 科技年会上的演讲内容,机器之心进行了不改变原意的编辑、整理。

图片

谢谢机器之心的邀请,我今天的演讲主题是《机器意识人工智能终极问题 “最后一公里”》,它只是一个抛砖引玉。我希望大家能够围绕该话题展开广泛的讨论,包括一些深入的技术探讨。我认为这个问题本身非常宏大,同时也非常有意思,涵盖了不同领域的融合。我希望 2023 年自己的团队以及其他团队有更多人投入到这个方向上来,有更多的思考。这是一个长期的发展方向。

之所以在标题中使用「最后一公里」,是因为我觉得虽然当前看到很多 GPT 系列的 AI 出现很大进步。但是,对于现在的神经网络,我希望包括自己团队在内的更多人去思考它的局限性。那么局限性是什么呢?我们或许有一些新的方法论(包括新方法),能够对 AI 实现一些质的突破。

演讲内容主要包括如下几个方面。首先是讲当前深度学习为基础的 AI 有哪些短处?当然大家都在讲它的好处,包括大模型等,但我想从当前存在问题的角度来阐述。接着是如何解决这些根本性问题?我在思考从脑科学以及人的意识、对人脑的研究这些方面会不会给我们带来不一样的东西。最后介绍一些当前机器意识的研究,包括目前的进展和未来的方向等。

图片

深度学习为基础的 AI 存在哪些局限?

大家都知道,人工智能机器学习不可分割。所谓人工智能,就是能不能让机器像人一样,有人的智慧,甚至未来比人的智慧更加强大。现在一个核心的方法或者关注的问题就是机器学习,即如何让计算机程序通过过去的经验(包括人为标记或未标记的数据、与环境的过去交互或从模拟器收集的数据)来提升性能。

图片

我们看到 ChatGPT、Transformer 等系列,通过大模型将人类历史上产生的所有数据,比如文本和图像,甚至拓展到了整个互联网层面。我们可以想象把人类五千年经验的积攒都放在网上,本质上可以将它们作为人类收集的经验,用一个基础模型来包括,并用它来学习,目的是提高各种各样的性能。

简而言之,我们可以把所有这些问题都包括成所谓的预测问题,就是我有一大堆数据,然后预测标签,通过神经网络在中间作为一个拟合或者函数映射。从数据到标签,当然也有其他的形式,比如各种各样的预测方法,包括语言模型计算机视觉。同时我们在强化学习中也可以用到映射。真正的表现形式可以是多样的,但本质上就是一个映射

如何去做呢?当然我们都知道是用深度学习,它是根植于生物或对大脑的研究,比如神经元,让它计算机化出不是蛋白质或者生物系统,而是在硅的系统下做成计算机形式的神经元。通过多层的形式能够达到并学习更复杂的表征,然后解决各种各样的机器学习任务。

图片

变化也很多。有了神经网络以及 X 到 Y 的映射,我们可以处理各种各样的问题,比如监督学习和无监督学习分类问题、生成式模型和强化学习。既然深度学习或者神经网络能够实现从 X 到 Y 的映射,大家对它展开了一些理论研究,比如它的能力边界在哪?之前有理论分析它是一个通用近似理论(universal approximation theorem),即在一定约束的情况下可以映射从任意的 X 到 Y 的拟合。

机器学习中有个「No free lunch」理论,我们在用神经网络或其他功能进行学习时,它对有些任务拟合得非常好。但是在有先验知识的情况下,如果拟合符合当前的先验知识,你必然能找到一类或一个任务无法学习。也就是说,虽然神经网络具有普适性且逼近如何拟合,但它并不适合所有任务。在有些任务上成功必然会在另一些任务上失败。

图片

既然这样,我们如何让智能体拥有一个很好的学习方法?它能够非常适应周围环境,尤其是不断变化的环境。这点对人和机器学习都非常重要。由于机器学习讲究的是泛化性,如果无法泛化到一个以前没有见过的环境,它的学习能力显然也是有限制的。

回过头看,对于复杂的任务,现在的机器学习方法还未能达到解决的地步。比如自动驾驶,你可以将它归结为当前 AI 系统还不能像人一样观察环境、根据当前情况进行判断、做决策和执行。

如下图所示,英国的 Magic Roundabout,它有好几圈的十字路口。这时候作为人去开车的话,要经过非常深入的观察、判断以及决策。如果从生物或者认知学角度来讲,它是通过所谓的 System 2 的方式来执行。在这种情况下,如果你问人(即驾驶者)当时是如何去执行的?他会非常清楚地告诉你看到了哪些车子以及怎样做出的判断等。

人其实是有意识的,可以主观感受到并报告给你当时发生的情况。当然人在驾驶的时候也有另一种模式,即 System 1。在这种模式下,你可以打电话,将自己的注意力或意识放在别的地方,同时你也可以开车。但是你在开车的情况下,只能适应一些简单的、你熟悉的路况。当你被问到是否碰到红绿灯或者其他情况,你完全不知道,这时你的意识集中在打电话这件事上。

所以从人的角度看,你会发现,当人要适应一个变化多样的环境时,它不是所谓的 System 1,肌肉记忆要从 X 预测到 Y,在当前状态下要干什么。它要经过思考、判断来决策。那么如何让机器思考或者现在的机器甚至最大的大模型有没有思考呢?按照当前的神经网络架构来看,它是没有思考的。它就是 X 到 Y 的映射,在一个状态下应该怎样做出行为。所以在新的环境下,它是没有办法实现非常有效的适应。

图片

神经科学与意识

人类智能的两个系统

如果事情是这个样子,我们可以走到生物体里面,不一定非得到人。我们可以观察其他的哺乳动物,看看它们做出什么决策,或者它们作为生命体如何做决策。你会发现,它们从最原始的如下图右所示的条件反射,可以对不同刺激建立起一些关联性。这是通过过去的经验经历来展开关联,也可以把原来有关联的去掉。它可以随着环境的改变而变化。同时如下图左所示,人有非常强大的意识,在执行决策的时候主观上报告给大家,用语言来描述当时经历了什么情况。

你会发现,在做决策的时候有两个阶段都可以包括在内。所以,一些神经科学家包括研究深度学习的科学家提出了 System 1 和 System 2 的概念。我们有慢思考(slowthinking)和快思考(fastthinking),慢思考是比较有主观意识的,可以进行规划、推理等。System 1 是应激性的、非常快的,同时是没有主观意识的。虽然可以解决一些问题,但无法解决所有问题。

在这种情况下,我们去看大脑。它在人进行 System 1、System 2 或无意识、有意识做决策时,是不是用到了同一种机制呢?它在大脑里反映的东西是不是在同一个区域呢?答案是否定的。

从下图可以看到,它的机制是不一样的,在不需要调动所有大脑功能的时候,其实你只能做一些东西,也即是所谓的无意识控制(Unconscious Control),你还可以做一些应激性反应。

图片

比如刚才所讲,打电话的同时在开车,开车这个动作只激活了大脑的一部分。当你要有主观意识的时候,就变成了全局性的,即大脑的所有地方都被激活了。这时我们可以用现在的一些手段,比如 EEG、核磁共振大脑切片等,观察大脑哪个地方被激活以及哪个地方没有被激活。我们可以明显地观察到差别。

意识的定义

那么意识到底是什么?当然它有各种各样的定义,也没有一个非常严谨和直接的定义。但是大部分人接受的一种定义是,意识就是主观感受。我们又如何判断它是主观感受呢?作为一个人,如果你可以感觉到并主要通过语言等方式描述给其他人,就认为它是一个主观感受。

比如人在开车时调用了 System 2,则有主观感受,可以描述当时开车的主观经验。这时就认为当时你的大脑中的确产生了意识,甚至可以审视你的神经、大脑的某些部位。在你产生意识的时候,我们可以用 EEG、核磁共振去测量你的脑电波以及大脑切片。当你产生主观经验时,我们可以定格到你的神经网络的某些阶段甚至是特定的神经元

每个人的体验是不一样的,比如我们在欣赏艺术作品、看电影、读书时,根据自己的经验和判断得出不一样的感受。所以,主观性是非常重要的。

图片

回到人工智能,现在计算机科学是实现人工智能的一种主要手段,一种机器学习手段。我们为什么要研究主观经验和意识呢?它们对人工智能有什么帮助呢?在我看来,主观感受或主观经验是我们观察到的一个现象,与智能水平有关联。

从刚才讲的很多例子发现,在人的情况下要去解决并必须产生主观感受。也就是说,在高级智能水平的情况下就会产生意识。因此我们必须研究它的机制、它对人工智能以及智能的影响。更高级的智能中可能就需要这样的机制。

如果任何智能没法产生意识,我们不能说它没有产生智能,而是不能产生最高级的智能。那么意识是不是必要或充要条件呢?它可能是其中的一个路径,但不一定是必要条件。这个方向指导我们实现更高级的智能,走到第二个阶段来跨越刚才讲的 No Free Lunch 和适应性问题。

这里还有个话题 —— 自由意志(Freewill)。作为人这种生物体而言,最后都会归结到细胞、蛋白质等物理的东西。那么又如何会有主观的东西在里面呢?又怎么会自由地决定这些事情呢?

按道理,如果我们遵循物理的原则,任何东西都是确定性的。如果这样,则在分析细胞以及物理东西的情况下,从第一原则出发,可以完全预测出它最后的结论和行为。为什么会有自由意志在里面呢?哲学家以及大脑研究相关人员都在努力搞清楚。

那么,是不是就可以从决定论的角度,根据每个神经元的分析来弄清楚宏观的东西。答案是否定的。因为大脑作为一个整体,当你把所有信息结合在一起的时候,它就变得不可分割了。所以你的分析必须要在整个大脑或整个 AI 作为一个单独系统的情况下,导出一些东西。并且任何个体都是有自由意志的,可以进行判断、决策,最后达到想要的。从第一原则即最低级的原则来判断,这是不冲突的。

图片

为什么呢?在整个大脑作为一个整体来讲时,我要把信息集成在一起。这个量是大于各个元素以及各个个体(component)的。如果这样,你必须要对整个大脑作为一个单元来分析。如果破解开来,显然就丢失掉了额外信息。其中一套理论是如果信息集成充分,就会产生意识。同时从刚才所讲的测量脑电波和大脑图像看出,当有主观意识时,人的大脑中的信息全部都被调动。

不同的意识理论和模型

现在针对意识有一些理论和模型,其中一个比较流行的是 Global neuronal workspace。关于刚才所讲核心的适应性问题,当做决策要适应各种各样的环境和任务时,作为一个神经网络或者结构来判断是否整体上解决了所有问题,还是解决各个功能模块然后整合起来以不变应变。如果可以涵盖各种各样的个体,则神经网络可以做到 compositional。

我们必须要把所有的信息合在一起,这时一个简单的方法就是 global workspace,其他地方都是与它连接。因此在做判断、决策时,我们可以将所有信息整合在一起,通过 global workspace 再发回到各个地方。同时信息整合之后,我们就可以做决策了。

这里是对意识的产生进行数学建模的其中一种方式,也不一定是数学模型。具体地,当信息在整合过程中,从 global 传递到各个地方并进行激活的情况下,就会产生意识以及主观感受。

图片

此外,如果我们对数据中的信息进行分析,你会发现在看现在的人工神经网络时,它是不是达到了我们刚才讲的情况,是不是把信息都整合了?答案当然是否定的。

再来看 Integrated information hypothesis,当信息整个集合的时候,整合起来的信息量大于单个个体。如果有系统可以产生这样的信息量以及信息的集成,也就是刚才所讲在整个大脑里面信息量得到了整合。同时也就摒弃了一切争论。确定的一点是,只有在信息整合充分的情况下大脑单元中才有主观意识。

如果这样,我们用信息集成度来测量现在的神经网络深度学习、Transformer,你会发现它们的信息整合度是零,也就是说在这种情况下不可能涌现出意识。现在使用的这些传统的feed forward神经网络方式是不可能的,但是如果用到一点点信息集成度,就需要产生一些东西比如回路(loop),也即当从各个个体到整个的 global workspace,再从 global workspace 把信息传回其他地方,出现了两者之间的反馈回路。先从 global workspace 反馈到各个单独的模块,同时各个模块再把它整合的信息返回到系统中。当出现回路时,信息就有集成了。

所以,你在测量比如 recurrent neural nets,即有一定信息回路和内存时,就会产生意识。有了一定的信息整合度,就会有一定的意识。所以这里用「整合信息理论」来解释意识。但是,这与我们常见或者感知到的意识并不是完全一样。这是因为这个测量是对的,你会发现家里的温度控制器其实也有意识。

所以这里定义的意识概念大于我们感受到的意识,比如人类意识。它只是作为一个必要条件。这意味着,如果我们想要有非常强的智慧,可能还需要其他一些东西(比如机器学习相关的)或者其他方法、特点。

图片

刚才所讲的集成信息理论(Integrated information theory),我没有太多时间深入探讨。但这里很有意思,其实它是从信息论推导出来。信息论探讨的是两个系统,它们之间有一些通讯,那么系统之间传递信息的时候符合什么样的理论和条件呢?

集成信息介于它,考虑的是一个系统比如大脑系统,把外界全部关闭。当我再去回想和做思考,以及将过去信息进行集成的时候会有什么规律呢?这是非常有意思的一套理论。我觉得从中可以推导出非常有意思的事情,也是自己目前比较看好且看得见摸得着的,非常符合计算机科学家去利用和发扬,甚至可以跟 AI 结合。

其他概念

接下来,我会快速过一遍其他概念,比如自我意识(self-consciousness),即「我是什么」。这个问题当然也比较大,包括我们在进行强化学习研究的时候,你会发现这个概念是缺失的,没有“我”的概念。又比如我们让强化学习玩 Atari 时,它完全不知道是在控制图像像素上的几个小点,它自身与环境完全没有分开。

所以你会发现,我们其实达到了什么阶段呢?所谓的强化学习以及相关方法,只是到了婴儿的早期阶段,它没有达到能够分开妈妈和小朋友的情况,所以还是没有成熟。我们发现在让强化学习做决策的时候,会有好多有意思的事情可以重新展开,重新用数学来表达。

机器意识及其不同阶段

图片

刚才所讲的是人大脑的相关意识,那么机器能不能产生意识呢?这也是个问题。我觉得在计算层级和数学表述层级,这两个问题是相通的。因为你可以将人类大脑想象成为一个所有的神经网络的连接,它也是一个信息系统。

如果你同意这个观点,那么在建模、数学表达和理论模型表达方面其实是一致的,只是实现和表现形式不同。它们可能产生不同的特征,在实现的时候可能一个用硅、一个用蛋白质。所以如果大脑产生的这些东西使用硅的方式,必然能够产生相通的东西,只要遵循相同的数学原则。所以机器意识肯定会产生,只是时间问题。

既然这样,我们作为研究人员是不是马上就能达到这个阶段呢?答案可能是 No。就像自动驾驶一样,我们能够达到完全自主、让车开得跟人一样好或者比人好吗?这是有阶段性的,至于什么时候能够达到,可能需要很长时间。但这并不代表我们现在不去做研究,不去做一些中间的事情。

比如特斯拉自动驾驶,它还没有达到 L5,可能需要五年、十年甚至二十年才能实现。这并不意味着特斯拉车不能上路,它正在一步步地逼近我们的最终目标。同样的道理,我们在研究机器意识的时候,也需要一个「沿途下蛋」的概念,分成不同的层次。所以我们基本上将机器意识的阶段分为了 C0 到 C5。

先来看最开始的阶段,完全没有机器意识,就是刚才所讲的函数映射、CNN 甚至 Transformer。一部分 Transformer 可能存在一些记忆,来记一些东西,甚至存在一些回路。

再往上它有对具身和对手的建模,比如多智能体学习、单智能体学习。目前爆火的 AIGC 大部分都在 C0 阶段,只是有机器在模仿有意识的人类产生的数据,在拟合数据,因而只能达到表象的意识。现在神经网络的拟合效果非常好,可以达到极致。所以它们是在 MC1 或 C0 阶段。

我们不能只在这个层次研究,必须要去研究意识产生的机制,并对这些机制进行建模和了解。在这个层次上,我们通过创新会产生不一样的东西,包括整个机制中有无反馈、有无记忆。在这种情况下才能最终达到 C2、C3,甚至是心智、情感,产生真正的具有自主交流甚至最后可以自主进行科学和有意识创作的机器人。

我觉得任重道远,但其实是一步步来的,每个阶段都有各自的主要短期目标。

图片

那么,是不是在计算机或人工智能领域完全没有这样的工作呢?回答是否定的。其实在研究人工智能的过程中已经有一些工作展开了,比如 global workspace,它甚至都谈不上一个数学模型,而只是一个对人产生意识的框架或理论。我们作为计算机科学家的主要任务是假设模型是对的,但如何去将它计算机化?这是主要矛盾。

你可以使用什么手段呢?比如人工神经网络,你可以在它的机制上尝试实现。如果不能实现,则要考虑是不是修改计算单元。如果能实现,则要考虑如何去建立新的神经网络架构和学习方法。我觉得这些是计算机科学家的活动空间。

其实已经有一些工作,比如把 global workspace 变成可计算。结果发现在这些情况下,我们能够做一些跟现有深度学习不一样的东西。所以这里做了一些尝试,一些方向上的东西。

图片

同样地,在强化学习中,我们可以有对具身的建模。但这些其实并不足够,我们可能需要发明一个新的框架,比如反馈回路、自具身世界建模、对手建模和 Meta-recognition。所谓 Meta-recognition,即强化学习知道它自己在做强化,自己反思这些行为,并在 Meta 层次看能不能识别。这些到最后是不是就能产生自我参照(Self-reference),并产生自我的概念呢?我们在这一方面做了很多尝试。

图片

还有一个最关键的方面,我们可能需要把环境和个体分开。只有把环境与个体分开,才能达到刚才讲的那些。因为如果没有界限,你就不存在什么东西或个体去适应。在没有个体的情况下,可能就没法达到我将来想要实现的这些目标。

图片

在这个基础上,我们也做了一些尝试,比如在多智能体中如何对自己和对手进行建模。我们通过前几年的工作发现,能够通过一些方法进行数学表达,非常自然地得到对手的结果。再比如心智的问题,即我在思考别人、别人在思考我,在多智能体场景下我要怎样建模。

这里我想讲的是,我们其实可以通过计算机的手段逐步向前推进,最终产生机器意识,并达成产生更强人工智能的目标。

结语

我今天所讲既没有很深也没有很广,正如开头所说抛砖引玉而已。我想抛出自己的问题,即「当前的深度学习存在什么问题」。我们看到 ChatGPT 的效果,但它其实非常受限,它只是被给予了有意识的人类5000年来产生的所有这么多数据,然后拟合这些数据。

现在的神经网络可以处理数据、并拟合得很好,但它是不是真正能够产生跟人一样的智慧呢?答案可能是否定的。它只是对这类数据的拟合,并完全没有达到对整个智能本质的理解。

所以我们必须要解决非拟合的机制上的根本性问题,如何办到呢?我们可能要从神经科学和意识理解层面,考虑怎样对人类大脑做适应、怎样通过个体的分化和各个功能模块、怎样高效地将这些模块整合起来。在更多了解这样的机制的情况下,可能会对 AI 再往前走起到一个质的变化。

理论机器学习
2
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

神经科学技术

神经科学,又称神经生物学,是专门研究神经系统的结构、功能、发育、演化、遗传学、生物化学、生理学、药理学及病理学的一门科学。对行为及学习的研究都是神经科学的分支。 对人脑研究是个跨领域的范畴,当中涉及分子层面、细胞层面、神经小组、大型神经系统,如视觉神经系统、脑干、脑皮层。

规划技术

人工智能领域的「规划」通常是指智能体执行的任务/动作的自动规划和调度,其目的是进行资源的优化。常见的规划方法包括经典规划(Classical Planning)、分层任务网络(HTN)和 logistics 规划。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

监督学习技术

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

先验知识技术

先验(apriori ;也译作 先天)在拉丁文中指“来自先前的东西”,或稍稍引申指“在经验之前”。近代西方传统中,认为先验指无需经验或先于经验获得的知识。先验知识不依赖于经验,比如,数学式子2+2=4;恒真命题“所有的单身汉一定没有结婚”;以及来自纯粹理性的推断“本体论证明”

强人工智能技术

强人工智能或通用人工智能(Strong AI或者 Artificial General Intelligence)是具备与人类同等智慧、或超越人类的人工智能,能表现正常人类所具有的所有智能行为。强人工智能是人工智能研究的主要目标之一,同时也是科幻小说和未来学家所讨论的主要议题。相对的,弱人工智能(applied AI,narrow AI,weak AI)只处理特定的问题。弱人工智能不需要具有人类完整的认知能力,甚至是完全不具有人类所拥有的感官认知能力,只要设计得看起来像有智慧就可以了。由于过去的智能程式多是弱人工智能,发现这个具有领域的局限性,人们一度觉得强人工智能是不可能的。而强人工智能也指通用人工智能(artificial general intelligence,AGI),或具备执行一般智慧行为的能力。强人工智能通常把人工智能和意识、感性、知识和自觉等人类的特征互相连结。

分类问题技术

分类问题是数据挖掘处理的一个重要组成部分,在机器学习领域,分类问题通常被认为属于监督式学习(supervised learning),也就是说,分类问题的目标是根据已知样本的某些特征,判断一个新的样本属于哪种已知的样本类。根据类别的数量还可以进一步将分类问题划分为二元分类(binary classification)和多元分类(multiclass classification)。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

信息论技术

信息论是在信息可以量度的基础上,研究有效地和可靠地传递信息的科学,它涉及信息量度、信息特性、信息传输速率、信道容量、干扰对信息传输的影响等方面的知识。通常把上述范围的信息论称为狭义的信息论,又因为它的创始人是香农,故又称为香农信息论。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

机器之心机构

机器之心,成立于2014年,是国内最具影响力、最专业、唯一用于国际品牌的人工智能信息服务与产业服务平台。目前机器之心已经建立起涵盖媒体、数据、活动、研究及咨询、线下物理空间于一体的业务体系,为各类人工智能从业者提供综合信息服务和产业服务。

https://www.jiqizhixin.com/
推荐文章
暂无评论
暂无评论~