王培(天普大学 计算机与信息科学系)原文刘凯(华中师范大学 心理学院)译文

通用人工智能导航:AGI的历史与现状

本文包含通用人工智能(Artificial General Intelligence,AGI)领域的历史和当前信息。尽管材料的选取与组织基于个人判断,但在撰写过程中仍尽力避免个人偏见。本文原英文作者为天普大学计算机与信息科学系王培教授,由华中师范大学心理学院博士后刘凯翻译。

点击访问原文(英文版)

1 从AI到AGI

1.1 AI:东驰西击,几经浮沉

人工智能Artificial Intelligence,AI)源于“可与人类相媲美的‘思维机器’”这一终极目标,如下列文献所昭示的:

·Computing machinery and intelligence,1950

·Proposal of the Dartmouth Meeting,1956

·Computers and Thought,1963

过去,曾经有不少野心勃勃的大项目试图实现这一目标,但都失败了,其中包括下列众所周知的例子:

·General Problem Solver(通用问题求解器)

·Fifth Generation Computer Systems(五代机)

·DARPA's Strategic Computing Initiative

部分由于认识到问题的难度,在上世纪七八十年代,主流AI逐渐避离以通用智能系统为目标,而转向为特定领域和特定问题寻求解决方案,尽管人们对这一转向有截然相反的看法:

·“AI采用科学方法 (1987-present)...现在更常见的是,基于现有的理论之上而非提出全新的理论;以严格的定理或确凿的实验证据为基础,而非直觉;走向现实世界的应用, 而非实验室的演示。”

·“仅有一小部分人还在坚持通用智能... AI1970年代以后已经脑死亡了。

结果,现今被称为“AI”的领域被分割为许多关联松散的子领域。这些子领域之间没有共同的基础或框架,并遭受着身份危机:

·外部认可:一旦某个问题被解决了,人们就不再认为它需要“智能”,所以AI领域的成功很难得到承认。

·内部分裂:AI的各个子领域之间的联系变得越来越少,尽管其中的问题是紧密相关的。

1.2 解冻和新势力

大约在2004年至2007左右,在主流AI领域内外,研究通用目的系统的呼声再起。

周年纪念日是对AI领域回顾的好时机。在以下的会议论文集和事件中,许多重量级的AI研究者提出了通用和类人智能(Human-level)的议题:

·AI Magazine 26(4)Winter 2005:for the 25th Anniversary of AAAI and AI Magazine

·AI Magazine 27(4)Winter 2006:for the 50th Anniversary of AI

·AI@50:2006 Dartmouth Artificial Intelligence Conference:The Next Fifty Years

在问世时间上多少有些巧合,主流AI圈外也出现了几本专著,以大胆的标题和全新的技术方案尝试在计算机中整体实现智能:

·Eric Baum,What is Thought?,2004

·Jeff Hawkins,On Intelligence,2004

·Marcus Hutter,Universal Artificial Intelligence,2005

·Pei Wang,Rigid FlexibilityThe Logic of Intelligence,2006 [The manuscript was finished in 2003]

·Ben Goertzel & Cassio Pennachin (Editors),Artificial General Intelligence,2007 [The manuscript was finished in 2003]

同期还有一些技术成分较淡但颇具影响的著作,也表现了对构建通用AI可能性的乐观观点:

·Ray Kurzweil,The Singularity Is NearWhen Humans Transcend Biology,2005

·Marvin MinskyThe Emotion MachineCommonsense ThinkingArtificial Intelligenceand the Future of the Human Mind,2006

·Ben Goertzel,The Hidden PatternA Patternist Philosophy of Mind,2006

·J. Storrs Hall,Beyond AICreating the Conscience of the Machine,2007

于是,在几十年后,“通用系统(general-purpose system)”、“集成AI(integrated AI)”、“类人AI或人类水平AI(human-level AI)” 等话题不再是禁忌(虽然依旧远非主流),如下一些会议所示:

·Achieving Human-Level Intelligence through Integrated Systems and ResearchAAAI Fall Symposium (2004)

·Towards Human-Level AI?NIPS Workshop (2005)

·AAAI conferences special track on Integrated Intelligent Capabilities (2006)

·Artificial General Intelligence Workshop (2006)

1.3 热潮重来

2008年之后,一些具有相似愿景或人员重叠的研究社群相继出现:

·Artificial General Intelligence:会议期刊协会

·Biologically Inspired Cognitive Architectures:会议期刊协会

·Advances in Cognitive Systems:期刊会议

·IEEE Task Force on Towards Human-like Intelligence:网站会议

更多的著作相继出版:

·Joscha Bach,Principles of Synthetic Intelligence PSI: An Architecture of Motivated Cognition,2009

·John Laird,The Soar Cognitive Architecture,2012

·Pei Wang and Ben Goertzel (Editors),Theoretical Foundations of Artificial General Intelligence,2012

·Pei Wang,Non-Axiomatic LogicA Model of Intelligent Reasoning,2013

·Ben Goertzel et al.,Engineering General Intelligence,Part 1 and Part 2,2014

在主流人工智能领域,深度学习(Deep Learning)近年来取得了突破性进展,再次点燃了人们对“类人”AI的希望之火。“图灵测试已被逾越”的宣称以及AlphaGo在围棋人机对弈中的胜出使得“何为及如何实现人工智能”讨论成为热点。然而,目前上述问题非但没有共识,反而愈加众说纷纭。一些企业巨头喊出“向AGI进军”的口号,但没有任何一家公布了路线图或总体设计的详细细节。其实,他们的思路无非是对深度学习进行扩展或是对现有AI技术进行整合,而这两条路线已经被许多AGI研究者所挑战。

部分地受近期进展的激发,越来越多的人认为AGI(或类似的目标)确实有可能实现。结果是,AGI的风险和安全成为了时下的热点问题,有些事件更是引发了媒体的关注:

·Research Priorities for Robust and Beneficial Artificial Intelligencean Open Letter from the Future of Life Institute

·The discussion raised by the Edge 2015 questionWhat Do You Think About Machines That Think?

·SuperintelligencePathsDangersStrategies by Nick Bostrom

·Elon Musk and co-founders established a non-profit research company OpenAI

作为近期发展的一个结果,同时也为了纪念达特茅斯会议60周年,Joint Multi-Conference on Human-Level Artificial Intelligence会议于2016年举行,其中包括AGI年会作为组成部分。该联合会议在2018年再次召开。

2 AGI基础

每个AGI研究者都必须回答下列基本问题:

1.AGI具体指的是什么?

2.这种AGI真的有可能实现吗?

3.如果AGI是可能的,什么途径最靠谱?

4.即使我们知道如何实现AGI,真的应该去做这件事吗?

【我个人的回答请见这里

下面总结AGI领域中对上述问题的主要答复。

2.1 何为AGI

笼统地说,通用人工智能(AGI)的研究具有下列特点:

·强调智能的通用性特质

·持有整体或综合的智能观

·相信打造可媲美人类智能的AI的时机已经成熟

因此,“AGI”更接近“AI”的初始意义,而与当前聚焦于领域相关或问题相关手段的主流“AI研究”极其不同。“AGI”与“强AI(Strong AI)”、“类人AI(Human-Level AI)”、“完全AI”、“思维机器(Thinking Machine)”、“认知计算(Cognitive Computing)”等概念更加相似。

AGI研究包括科学(理论)与工程(技术)两个方面。一个完整的AGI成果通常包括:

1.关于智能的理论

2.该理论的形式化模型

3.该模型的计算机实现

尽管当前的AGI项目都有在计算机中完整实现“智能”的共同愿景,它们的具体目标却并不相同。所有的AGI方案都以人类智能作为灵感之源,却仍对“智能”做不同的解读。其结果是各个AGI项目试图在不同的抽象层次上复制人类智能:

·结构派

基本理由:既然智能是人脑的产物,那么建造智能计算机就该尽可能模拟人脑结构

理论背景:神经科学和生物学等

典型代表:HTMVicarious

主要挑战:有太多生理细节既不可能也无必要在AI系统中复制

·行为派

基本理由:智能表现为人类的外在行为,所以只需让计算机表现得与人一样即可

理论背景:心理学和语言学等

典型代表:Turing Testcognitive model

主要挑战:有太多心理和社会因素既不可能也无必要在AI系统中复制

·能力派

基本理由:人们通常以问题解决能力来评估智力,因此智能系统要能够解决那些现在只有人脑才能解决的问题。

理论背景:领域知识指导下的计算机应用

典型代表:AlphaGoexpert system

主要挑战:缺乏对智能问题的界定,专用解决方案的通用性和灵活性不足

·功能派

基本理由:智能是诸如感觉、推理、学习、行为、交流、问题解决等认知功能的总合。因此,在计算机中分而治之地实现这些功能就能够实现智能。

理论背景:计算机科学

典型代表:主流AI教材Soar

主要挑战:现有AI技术相当碎片化与僵化,难以有效整合。

·原则派

基本理由:智能是一种理性或优化。智能系统应该总是能够按照某种原则而“做正确的事”。

理论背景:逻辑学和数学等

典型代表:AIXINARS

主要挑战:智能和认知中的影响因素太多,以至于难以被一种理论解释或生成。

自上而下,上述派别对人类智能的描述越来越抽象,而其相应的计算机实现也体现了这些不同的抽象层次。由于对智能的不同描述具有不同的粒度和范围,尽管各个派别的目标相关,但依旧差异明显且相互不兼容。实现其中某一目标的最优方式却往往对其他目标的实现帮助有限。[更为详细的讨论请见这里]

由于研究目标的多样性,虽然AGI研究者进行了多方协作尝试,当前在AGI学界仍没有被普遍认可的评价标准(如必经阶段或基准测试)。

2.2 局限与质疑

自从人工智能或“思维机器”的想法出现,人们对其可能性的各种质疑声便不绝于耳。一些人声称他们已经证明,受制于计算机的某些基本限制,AGI或之类的东西理论上都是不可能的。

许多研究者批评了这些反对意见,重要观点可参见于以下著述:

·《计算机器与智能》(Computing machinery and intelligence),图灵(Alan M. Turing)

·《哥德尔、埃舍尔、巴赫集异璧之大成》(Gödel,Escher,Bach:An Eternal Golden Braid),侯世达(Douglas R. Hofstadter)

显然,AGI研究者们都相信AGI可以实现(尽管他们对该术语有不同的解释)。在2006年AGI研讨会文集的序言中,我和本·戈策尔(Ben Goertzel)回应了下列常见质疑和反对意见:

·AGI是不可能实现的

·不存在一般性的智能

·通用系统不如专用系统有用

·AGI已经包含在当前的AI中

·现在研究AGI还为时过早

·AGI只不过是炒作

·AGI研究没有实质进展

·AGI是危险的

有些对AGI可能性的质疑源于对AGI试图做什么或计算机可以做什么的误解。前一小节澄清了前一个问题,而对后一个问题的分析可以在这里找到。

2.3 策略与技术

一方面,AGI的最终目标是将智能作为一个整体进行再现,而另一方面,工程实践必须循序渐进。解决这个矛盾总体策略有三种:

·混合策略

方法:使用不同的理论和技术逐个实现单独的功能,然后将其关联起来。

观点:(AA)AIMore than the Sum of Its Parts,Ronald Brachman

难点:各种理论和技术的兼容性

·集成策略

方法:首先设计一个体系结构,再使用不同的技术实现各个模块。

观点:Cognitive SynergyA Universal Principle for Feasible General Intelligence,Ben Goertzel

难点:功能间的离解、规范与协调

·统一策略

方法:使用同一种技术从核心系统开始逐步扩展和扩充。

观点:Toward a Unified Artificial Intelligence,Pei Wang

难点:核心技术的通用性和可扩展性

显然,开发策略的选择在一定程度上取决于研究目标的选择。

目前,AGI项目中使用的包括但又不限于以下主要技术:

·逻辑

·概率论

·产生式系统

·图论

·知识库

·学习算法

·神经网络

·进化计算

·机器人

·多主体系统

虽然这些技术也都在主流人工智能中得到了探索,它们在通用系统中的设计和实现细节仍是非常不同的。

2.4 AGI的伦理问题

即使我们已经找到了实现AGI的方法,也并不意味着我们一定要把它造出来。与所有重大科学发现和技术突破一样,AGI有可能彻底改变我们的生活甚至人类的命运,或吉或凶——或者就像通常情况下,是二者的混合。

AGI研究人员意识到了他们在这个问题上的责任,尽管他们中的大多数人认为,根据现有的证据,AGI研究的进展将使人类受益,而不是毁灭人类。对AGI“安全性”的讨论一开始就是AGI会议议题的一部分,如:

·AGI-08包括了一个关于The SocioculturalEthical and Futurological Implications of Artificial General Intelligence的研讨会

·AGI-12是由牛津大学Future of Humanity Institute联合赞助的。在这次会议上,许多论文讨论了伦理和道德问题

当然,许多关键问题仍未圆满解决,但要找到解决方案,应该加快而非放缓AGI的研究。需要再一次强调的是,目前一些关于AGI广泛传播的担心和恐惧是基于对AGI性质的误解。【我自己的声明在此

3 AGI的代表性项目

下面的项目被选出来代表当前的AGI研究,因为它们都满足三个条件:

1.明确地面向AGI(这就是为什么IBM的Watson和谷歌的AlphaGo并不在其中)

2.目前仍活跃(这就是为什么其中不再包括Pollock的OSCAR和Brooks的Cog)

3.有大量已发表的技术细节(这就是为什么很多新近的AGI项目并不在其中)

3.1 项目概要

下列项目按字母顺序列出。项目名带有该项目网站的链接,其后的介绍摘录自项目网站。引文的重点是研究目标(第一个问题)和技术路径(第三个问题)。所选的两份关于该项目的出版物,其一为概述,其二是详细说明。

·ACT-R[An Integrated Theory of the MindThe Atomic Components of Thought]

ACT-R是一种认知结构:一种模拟和理解人类认知的理论。致力于ACT-R的研究者竭力了解人们如何组织知识并产生智能行为。随着研究的持续,ACT-R越来越接近于一个能够执行全部人类认知任务的系统:在细节上探查我们对世界的感知、思考和行动的方式。

从外部看,ACT-R像是一种编程语言;然而,它的结构反映了对人类认知的假设。这些假设基于的是心理学实验中所发现的大量事实。类似一种程序语言,ACT-R框架可用于不同的任务(如河内塔、记忆或单词列表的记忆、语言理解、通信、飞行器控制),研究人员创建用ACT-R编写的模型(aka程序),除了结合ACT-R的认知观,还可以对特定任务添加其他假设。于是,可以通过比较相同任务模型执行的不同结果来验证这些假设。

ACT-R是一种混合认知架构,其符号结构是一个产生式系统;亚符号结构由一组大量的并行过程组成,这些过程用许多数学方程来刻画。亚符号方程用于对多个符号过程的控制。例如,如果有多个运行结果匹配缓存的状态,亚符号效用方程会估算与每个运行相关的相对成本和收益,并选择效用最高者来执行。类似地,从陈述性记忆中能否(或多快)提取某个事实,则取决于亚符号检索方程,该方程考虑了该事实的情境及使用历史。亚符号机制也负责ACT-R中大多数学习过程。

·AIXI[Universal Algorithmic IntelligenceA mathematical top->down approachUniversal Artificial Intelligence]

一个重要的发现是,智能的绝大多数方面(如果不是所有已知的)都可被解释为目标驱动,或者更具体地说,是一些效用函数的最大化。

如果已知真实环境的先验概率分布,序贯决策理论从形式上解决了不确定世界中的理性主体问题。Solomonoff的通用归纳理论从形式上解决的是先验分布未知情况下的序列预测问题。将这两种观点结合起来,得到一个无参数约束的通用的人工智能理论。我们有充分理由认为AIXI模型可能是最具智能且无偏差的。

AIXI模型的主要缺点就是它的不可计算性,……这使得其不可能被实现。为了克服这个问题,我们构建了一个改进的AIXItl模型,它比任何其他的时间和长度受限的算法都更加有智能。

·Cyc[CycA Large-Scale Investment in Knowledge InfrastructureBuilding Large Knowledge-Based Systems]

海量的常识知识代表人类对现实的共识,人们试图对其编码而构造出一个通用性的人工智能系统。为了模仿人类推理,Cyc需要有关科学、社会文化、自然气候、货币金融系统、医疗卫生、历史、政治以及人类经验的许多其他领域的背景知识。Cyc项目团队预计将编码至少100万个横跨这些及其他领域的事实。

Cyc知识库(KB)基于大量基本人类知识的形式化表征:日常生活中物体和事件的事实、经验法则和启发式推理。表征的媒介为形式化语言CycL。知识库KB由术语(构成CycL的词汇表)和与之相关的断言组成,这些断言包括简单的基本断言及规则。

·HTM [Hierarchical Temporal MemoryOn Intelligence]

Grok诸模型的核心为皮质学习算法(CLA),它是大脑皮层中细胞层次的一个详细而真实的模型。与一般观点相反,大脑皮层不是一个计算系统,而是一个记忆系统。当你出生时,大脑皮层有结构,却并无知识。你通过从感觉输入流中建立世界模型来了解这个世界。从这些模型中,我们进行预测、发现异常并采取行动。

换句话说,最好将大脑描述成一个把预测转化为行动的预测建模系统。大脑皮层的三个主要工作原理则是:稀疏的分布式表征、序列记忆和即时学习。

·LIDA [The LIDA Architecture LIDA Toturial]

LIDA概念模型旨在成为一个认知的“万物理论”,它运用和吸收了许多心理学和神经科学的认知理论。具有感知、工作记忆、情景记忆、“意识”、程序性记忆、动作选择、知觉学习、情景学习、思考、意志和非常规问题解决等多种模块或过程,LIDA模型特别适合作为AGI探讨、设计与比较的可工作的原型。LIDA的技术基于LIDA认知循环,这是一种“认知原子”。更基本的认知模块在每个认知周期中都起着作用,高层处理则在多个循环中执行。

LIDA架构中节点和链接代表可感知的实体、对象、类别、关系等...…作为感知符号,它们在LIDA诸模块中共同的信息流。

·MicroPsi [The MicroPsi Agent ArchitecturePrinciples of Synthetic Intelligence]

MicroPsi代理架构描述了代理间的情绪、动机和认知的交互作用,主要基于Dietrich Dorner的Psi理论。Psi理论涉及情绪、知觉、表征和有限理性,该理论与计算机科学中代理的讨论关系不大,更多遵从的是心理学框架。MicroPsi是对原有理论的一种更抽象、更形式化的表述,同时也深化了记忆、构建本体类别和注意等概念。

代理框架使用叫做节点网的语义网络,它是控制结构、计划、感觉和动作模式、贝叶斯网络和神经网络的统一表示。因此,在同一框架内建立不同类型的代理是可能的。

·NARS [From NARS to a Thinking MachineRigid FlexibilityThe Logic of Intelligence]

与传统推理系统的不同之处在于,NARS从自身的经验中学习,在知识和资源不足的情况下仍能工作。NARS试图统一解释和复现诸如推理、学习、规划等多种认知功能,从而为整个人工智能提供大一统的理论、模型和系统。研究的最终目的是构建一个思维机器。

NARS的开发采用增量方法,包括四个主要阶段。在每个阶段中,逻辑都被扩充,而使系统的语言表达更为丰富、语义更加丰满、推理规则更为多样;然后再相应地调整记忆和控制机制,使其支持新的逻辑

在NARS中,“推理”被扩展为一种系统根据过去预测未来的能力,通过领域无关的方式将合理的小步骤整合到宏观行为中,而用有限的资源供给来满足无限的资源需求。

·OpenCog [An Overview of the OpenCogBot Architecture;Engineering General Intelligence,Part 1 and Part 2]

作为一个软件框架,OpenCog的目标是为科学家和软件开发人员提供一个共同的平台来构建和共享人工智能程序。OpenCog的长期目标是加快发展有益的AGI。

OpenCogPrime是在OpenCog框架内实现的一个特殊的AGI设计。它提供了一个涵盖智能方方面面的极为具体和全面的设计。其假设为如果该设计在一个合理大小的分布式网络上得到充分的实现和测试,结果将产生一个具有人类水平并最终超越人类的通用智能的AGI系统。

虽然基于OpenCogPrime的AGI系统可以做很多事情,但是我们最初关注的是使用OpenCogPrime来控制虚拟世界中简单的虚拟代理。我们也在试验用它来控制Nao的人形机器人。有关一些演示视频,请见http://novamente.net/example。

·Sigma [The Sigma Cognitive Architecture and SystemThe Sigma Cognitive Architecture and System]

这项工作的目标是开发一个足够高效、功能简洁、认知通用、整体统一的认知架构来支持虚拟人(希望是智能代理/机器人——甚至也是一种人类认知的统一性理论的新形式)。

我们关注的重点是Sigma(∑)架构的开发,从而探究了图形架构假设,即目前的进展取决于融合过去30多年来对认知架构和图形模型独立开发所获得的经验,这是一种广泛应用的最先进的构建智能机制的形式主义。结果是,使用一种混合(离散+连续)杂糅(符号+概率)的方法,在记忆和学习、解决问题和决策、心理意象和知觉、言语和自然语言、情感和注意等多个方面取得了初步成果。

·SNePS [The GLAIR Cognitive ArchitectureSNePS Tutorial]

SNePS的长期目标是理解智能认知过程的本质,研究方法则借助于可计算的认知代理的开发和实验,这些认知代理能够使用和理解自然语言、推理、行为和解决各种领域的问题。

SnePS的知识表示、推理和行为系统具备一些特点:能够增进基于SNePS的代理中的元认知。最明显的一个事实是,命题用词项而非逻辑语句来表达。好处是,命题可以作为命题论证、行为和策略无限制地出现,而不会脱离一阶逻辑

·Soar[A Gentle Introduction to SoarThe Soar Cognitive Architecture]

智能的终极目标是完全理性,这意味着在遇到的每项任务中系统都能使用所有可用的知识。不幸的是,由于检索相关知识的复杂性,随着知识体系的增加,任务变得更加多样化,系统响应时间要求更加严格,导致该目标无法实现。目前所能实现的最佳方案是完全理性的近似。Soar的设计就可以看作是对这种近似的努力。

多年来,Solar一个次要的原则是应该尽量减少不同构建机制的数量。在Solar8中,只有一个处理所有任务和子任务(问题空间)的单一框架,一个用于永久知识(产生)的单一表示,一个用于临时知识(具有属性和值的对象)的单一表示,一个用于生成目标(自动子目标)的单一机制,以及一个用于学习的单一机制(组块)。我们重新讨论了这个假设,因为我们在不降低任务性能的情况下,试图实时捕获所有可用的知识。由此,产生出多种学习机制(组块学习、强化学习、情景学习和语义学习)以及长时知识的多重表征(过程性知识、语义性记忆和情景性记忆的产物)。

Solar设计的另外两个指导原则是功能和性能。功能包括确保Soar具有实现人类使用的全部认知功能所需的基本功能,包括但不限于反应性决策、情境感知、精细推理和理解、计划以及各种形式的学习。性能涉及确保Soar具有执行基元操作的有效计算算法,范围涉及从长期记忆中检索知识到制定决策,再到获取和存储新知识。

3.2 粗略分类

根据对之前第一个问题(研究目标)和第三个问题(技术路径)的回答类型,上述AGI项目粗略的分类如下表所示。

目标\路径

混合

集成

统一

原则派



AIXI,NARS

功能派


OpenCog

Sigma,SNePS,Soar

能力派



Cyc

行为派


LIDA,MicroPsi

ACT-R

结构派



HTM

由于这一分类是在较高的层次上进行的,所以表格中同类项目在其研究目标和技术路径的细节上仍然会有较大的差别。

总之,当前的AGI项目基于的是非常不同的理论和技术。

4 AGI的文献和资源

4.1 AGI合集

·最早的AGI合集作品是Artificial General Intelligence。虽然本书于2007年出版,但文稿早在2003年便已完成。出版社官网可免费下载目录和引言Contemporary Approaches to Artificial General Intelligence”。

·Advances in Artificial General Intelligence: Concepts, Architectures and Algorithms是2006年AGI研讨会的会后文集。引言部分Aspects of Artificial General Intelligence阐明了AGI的概念,并总结了其他章节。

·Theoretical Foundations of Artificial General Intelligence是由AGI中的活跃研究者共同编写的一部合集。每一章都涉及到AGI的一个理论问题,撰文风格非技术化,以便让圈外的读者更加通俗易懂地了解AGI的相关研究工作。

·Between Ape and ArtilectConversations with Pioneers of Artificial General Intelligence and Other Transformative Technologies,包含一些AGI研究者的采访。

AGI国际年会始于2008年,会议网站记录了所有收录论文的链接,同时也附有其他材料,如演示文件和视频记录。

Journal of Artificial General Intelligence(JAGI)是一份同行评审的开放获取期刊,始于2009年。

AGI会议和期刊由通用人工智能协会(AGIS)管理。对AGI感兴趣的人都可以申请成为会员。

4.2 与AGI或AGI研究有关的交流小组和社交媒体

·Facebook上的AGI小组:Artificial General Intelligence AGI, Real AGI, Artificial General Intelligence

·LinkedIn上的AGI小组

·Google上的AGI小组

·AGI的邮件列表

4.3 为学生准备的资料

·Suggested Education for Future AGI Researchers,王培编写

·Sketch of an AGI Curriculum,Ben Goertzel编写

·AI Recommendations,Marcus Hutter编写

·历次AGI暑期学校录像

·MIT 6.S099Artificial General Intelligence

4.4 其他AGI资源

·AGI协会的资源页面

·Wikipedia的通用人工智能页面

·Scholarpedia的通用人工智能页面

理论语义网络强化学习神经科学图灵测试深度学习通用人工智能
3
相关数据
英特尔机构

英特尔是计算创新领域的全球领先厂商,致力于拓展科技疆界,让最精彩体验成为可能。英特尔创始于1968年,已拥有近半个世纪产品创新和引领市场的经验。英特尔1971年推出了世界上第一个微处理器,后来又促进了计算机和互联网的革命,改变了整个世界的进程。如今,英特尔正转型成为一家数据公司,制定了清晰的数据战略,凭借云和数据中心、物联网、存储、FPGA以及5G构成的增长良性循环,提供独到价值,驱动日益发展的智能互联世界。英特尔专注于技术创新,同时也积极支持中国的自主创新,与产业伙伴携手推动智能互联的发展。基于明确的数据战略和智能互联全栈实力,英特尔瞄准人工智能、无人驾驶、5G、精准医疗、体育等关键领域,与中国深度合作。面向未来,英特尔致力于做中国高价值合作伙伴,在新科技、新经济、新消费三个方面,着力驱动产业协同创新,为实体经济增值,促进消费升级。

https://www.intel.com/content/www/us/en/company-overview/company-overview.html
相关技术
马文·明斯基人物

马文·李·明斯基,生于美国纽约州纽约市,美国科学家,专长于认知科学与人工智能领域,麻省理工学院人工智能实验室的创始人之一,著有几部人工智能和哲学方面的作品。1969年,因为在人工智能领域的贡献,获得图灵奖。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

基准技术

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

神经科学技术

神经科学,又称神经生物学,是专门研究神经系统的结构、功能、发育、演化、遗传学、生物化学、生理学、药理学及病理学的一门科学。对行为及学习的研究都是神经科学的分支。 对人脑研究是个跨领域的范畴,当中涉及分子层面、细胞层面、神经小组、大型神经系统,如视觉神经系统、脑干、脑皮层。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

阿尔法围棋技术

阿尔法围棋是于2014年开始由英国伦敦Google DeepMind公司开发的人工智能围棋程序。AlphaGo是第一个打败人类职业棋手的计算机程序,也是第一个打败围棋世界冠军的计算机程序,可以说是历史上最强的棋手。 技术上来说,AlphaGo的算法结合了机器学习(machine learning)和树搜索(tree search)技术,并使用了大量的人类、电脑的对弈来进行训练。AlphaGo使用蒙特卡洛树搜索(MCTS:Monte-Carlo Tree Search),以价值网络(value network)和策略网络(policy network)为指导,其中价值网络用于预测游戏的胜利者,策略网络用于选择下一步行动。价值网络和策略网络都是使用深度神经网络技术实现的,神经网络的输入是经过预处理的围棋面板的描述(description of Go board)。

知识库技术

知识库是用于知识管理的一种特殊的数据库,以便于有关领域知识的采集、整理以及提取。知识库中的知识源于领域专家,它是求解问题所需领域知识的集合,包括基本事实、规则和其它有关信息。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

通用问题解决器技术

通用问题解决器 是由Herbert Simon、J.C. Shaw和Allen Newell三人于1957年创建的一个计算机程序,基于Simon和Newell的关于逻辑机的研究,用以作为普遍问题解决机。原理上,任何形式化的符号问题都可以被此程序解决。例如,定理证明,几何问题以及国际象棋对抗。

强人工智能技术

强人工智能或通用人工智能(Strong AI或者 Artificial General Intelligence)是具备与人类同等智慧、或超越人类的人工智能,能表现正常人类所具有的所有智能行为。强人工智能是人工智能研究的主要目标之一,同时也是科幻小说和未来学家所讨论的主要议题。相对的,弱人工智能(applied AI,narrow AI,weak AI)只处理特定的问题。弱人工智能不需要具有人类完整的认知能力,甚至是完全不具有人类所拥有的感官认知能力,只要设计得看起来像有智慧就可以了。由于过去的智能程式多是弱人工智能,发现这个具有领域的局限性,人们一度觉得强人工智能是不可能的。而强人工智能也指通用人工智能(artificial general intelligence,AGI),或具备执行一般智慧行为的能力。强人工智能通常把人工智能和意识、感性、知识和自觉等人类的特征互相连结。

图论技术

图论是以“图”为研究对象的一个数学分支,是组合数学和离散数学的重要组成部分。图是用来对对象之间的成对关系建模的数学结构,由“顶点”(又称“节点”或“点”)以及连接这些顶点的“边”(又称“弧”或“线”)组成。值得注意的是,图的顶点集合不能为空,但边的集合可以为空。图可能是无向的,这意味着图中的边在连接顶点时无需区分方向。否则,称图是有向的。

语义网技术

语义网是由万维网联盟的蒂姆·伯纳斯-李在1998年提出的一个概念,它的核心是:通过给万维网上的文档蒂姆加能够被计算机所理解的语义,从而使整个互联网成为一个通用的信息交换媒介。语义万维网通过使用标准、置标语言和相关的处理工具来扩展万维网的能力。

图灵测试技术

图灵测试(英语:Turing test,又译图灵试验)是图灵于1950年提出的一个关于判断机器是否能够思考的著名试验,测试某机器是否能表现出与人等价或无法区分的智能。测试的谈话仅限于使用唯一的文本管道,例如计算机键盘和屏幕,这样的结果是不依赖于计算机把单词转换为音频的能力。

语义网络技术

语义网络常常用作知识表示的一种形式。它其实是一种有向图;其中,顶点代表的是概念,而边则表示的是这些概念之间的语义关系。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

暂无评论
暂无评论~