Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

图灵奖得主LeCun:为什么未来几年AI更可能变得像狗一样聪明,而不是人类?

机器之能报道

编辑:Sia

AI 正在超越人类。上周,英伟达 CEO 黄仁勋本在《纽约时报》年度 DealBook 峰会上宣称。

如果将通用人工智能 ( AGI ) 定义为能够以与人类智能「相当有竞争力」的方式完成测试的计算机,那么,「在未来五年内,我们将会看到这样的 AI 。」

话音落下不久,Meta 首席人工智能科学家、深度学习先驱、图灵奖得主 LeCun 就在公开场合反驳了黄仁勋的说法。

在上周纪念 Meta 基础人工智能研究团队( FAIR )成立 10 周年的活动中,LeCun 重申了他对 AI 在不久将来达到先进或人类水平智能的怀疑。

「我认识黄仁勋」,他说。「如果说 AI 是一场战争,他们就是在提供战争需要的武器。」很明显,LeCun 是指英伟达可以从 AI  炒作中赚取巨额利润。

「如果你认为 AGI 已经是大势所趋,你就必须购买更多的 GPU。」「只要 OpenAI 等公司的研究人员继续追求 AGI,他们就需要更多英伟达的芯片。」

LeCun 认为,未来几年,AI 更有可能变得像「猫」或「狗」一样聪明。

按照这个说法,即使最乐观地按边牧(目前最聪明的狗)来算,AI 也只有 6-8 岁孩子的智力水平。

图片按照这个预测,即使最乐观地按照边牧(目前最聪明的狗)来计算,也相当于6-8岁孩子的水平。

ChatGPT 对大型语言模型迷恋和倚重的出发点在于,研究人员相信被用来训练基础大模型的语言是一种非常特殊的信息来源。

与声音、光、震动等直接的物理信息不同,语言的信息异常密集,它以字节为单位,将人类对这个世界重要认知都编码进来,因此也是最为有效的数据之一。任何试图理解这个世界的智能体都希望更多地吸收语言。

「假如你想变得非常擅长预测下一个单词,真想做好的话,就得明白别人在说什么。这是唯一的办法。所以,通过训练一些东西,让它非常擅长预测下一个单词,你实际上是在强迫它理解。

深度学习之父 Hinton 在《纽约客》专访时解释过他为什么担心 AI 。系统学会了「自动补全」,「但你没有想清楚拥有一个真正好的自动补全意味着什么。」

比如,驱动 OpenAI 聊天机器人的 GPT 可以理解单词和想法的含义。他解释说,通过分析人类写作,像 GPT 这样的大型语言模型可以学习世界是如何运作的,从而产生一个能够思考的系统。

「这就像毛毛虫变成蝴蝶。」他比喻道,幼虫代表训练模型的数据,蝴蝶代表着从数据中创造的 AI 。

图片2018年图灵奖得主、Meta首席 AI 科学家 Yann LeCun

但 Le Cun 并不认同。「文本是一个非常糟糕的信息来源,」他解释说,人类可能需要 2 万年才能阅读完目前用于训练现代语言模型的文本体量。

「用相当于两万年的阅读材料来训练一个系统,它们仍然不明白,如果 A 和 B 相同,那么,B 和 A 也相同。」

目前,大家对语言模型和文本数据的关注,并不足以创造出研究人员几十年来一直梦想的那种先进的类人 AI 系统。

早在 6 月,LeCun 就在 Viva Tech 大会上就表达过类似的观点,像 ChatGPT 这样经过大型语言模型训练的 AI 甚至不如狗或猫聪明,它的能力是「有限的」。

他解释说,AI 接受过语言训练,所以能通过律师资格考试,但它不知道怎么把盘子放进洗碗机——这是 10 岁孩子都会的事。

这些系统仍然非常有限,它们对现实世界的根本现实没有任何了解,因为它们纯粹是接受大量文本的训练。他当时说道,「大多数人类知识与语言无关……因此 AI 无法捕捉到人类的部分经验。

在上周的10 周年纪念活动中,LeCun 重申,「还有关于这个世界更为基础性的东西,但这些模型没有通过它们得到训练。」

需要说明的是,LeCun 也声明自己并非怀疑论者, 「我总是说,人类水平 AI 可以在几十年内实现。」如果我认为不能在未来十年取得重大进展,我就不会有今天的成就。

但 LeCun 强调,实现这一点比大多数人想象的要难,并非 「指日可待」。

我所说的「并非指日可待」,是指「显然『不会在未来 5 年内实现』,这与 AI 行业许多人的看法相反。」

而且,他和 Meta 也不会用强化学习( RL )来解决这个问题。自监督学习( SSL )、世界模型和规划将是实现人类水平 AI 的关键。图片

因此,LeCun 和其他 Meta AI 高管一直在深入研究如何实现 transformer 模型的定制化,以处理各种数据,包括音频、图像和视频信息。

他们认为,这些 AI 系统越能发现这些不同类型数据之间可能隐藏的数十亿个相关性,越有可能实现更奇妙的壮举。

他们现在的一些研究包括人们戴上数字增强现实眼镜后,如何更好学习打网球的软件。比如,用户能够看到视觉提示,告诉他怎么正确握住球拍,完美摆动手臂。

驱动这类数字网球助手,需要各种 AI 模型——不仅需要处理文本和音频,还需要混合三维视觉数据。

这些所谓的多模态 AI 系统代表了下一个前沿领域,但它们的发展并不便宜。即便是 Meta 也需要 16,000 个 Nvidia A100 GPU 来训练 Llama 。

未来他们也要继续开发这些复杂的 AI 模型。对此,LeCun 表示 GPU 仍然是 AI 的黄金标准。不过,未来的计算机芯片可能不会被称为 GPU,他说。

「你将看到新的芯片,它们不是图形处理单元( GPU ),而只是神经的深度学习加速器(neural, deep learning accelerators)。」

参考链接
https://www.cnbc.com/2023/12/03/meta-ai-chief-yann-lecun-skeptical-about-agi-quantum-computing.html

产业AIGC人工智能黄仁勋英伟达
1
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

增强现实技术

增强现实,是指透过摄影机影像的位置及角度精算并加上图像分析技术,让屏幕上的虚拟世界能够与现实世界场景进行结合与互动的技术。这种技术于1990年提出。随着随身电子产品运算能力的提升,增强现实的用途也越来越广。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

规划技术

人工智能领域的「规划」通常是指智能体执行的任务/动作的自动规划和调度,其目的是进行资源的优化。常见的规划方法包括经典规划(Classical Planning)、分层任务网络(HTN)和 logistics 规划。

聊天机器人技术

聊天机器人是经由对话或文字进行交谈的计算机程序。能够模拟人类对话,通过图灵测试。 聊天机器人可用于实用的目的,如客户服务或资讯获取。有些聊天机器人会搭载自然语言处理系统,但大多简单的系统只会撷取输入的关键字,再从数据库中找寻最合适的应答句。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

通用人工智能技术

通用人工智能(AGI)是具有一般人类智慧,可以执行人类能够执行的任何智力任务的机器智能。通用人工智能是一些人工智能研究的主要目标,也是科幻小说和未来研究中的共同话题。一些研究人员将通用人工智能称为强AI(strong AI)或者完全AI(full AI),或称机器具有执行通用智能行为(general intelligent action)的能力。与弱AI(weak AI)相比,强AI可以尝试执行全方位的人类认知能力。

本体技术

在计算机科学和信息科学中,本体包括表示、正式命名和定义概念,数据,实体之间的类别,属性和关系,并在一个,多个或所有域实例中。

自监督学习技术

一个例子中的内容特别多,而用一个例子做一个任务,就等于把其他的内容浪费了,因此我们需要从一个样本中找出多个任务。比如说遮挡图片的一个特定部分,用没遮挡部分来猜遮挡的部分是一个任务。那么通过遮挡不同的部分,就可以用一个样本完成不同任务。Yann Lecun描述的这个方法被业界称作「自监督学习」

推荐文章
暂无评论
暂无评论~