MIT来源原理(二宗主)编译

下一个牛顿会是AI物理学家吗?

上周,来自麻省理工学院(MIT)的两位物理学家Tailin WuMax Tegmark创造出了一个人工智能(AI)物理学家,能够在一些为了模拟我们宇宙的复杂性而创造出的神秘世界中梳理出物理定律。这标志着我们朝着创造出不仅能发现模式、还能从这些模式中对未来进行预测的机器学习算法迈出了重要一步,为完全由AI来完成科学发现奠定了基础。

○ 在这个神秘世界中,视场被分为四个象限,每个象限都受不同的物理效应的支配,比如引力(左下)或电磁场(右下)。点和线代表球在环境中的轨迹。基于球如何在环境中运动,AI必须使用它被给予的策略来描述支配球运动的物理定律。| 图片来源: Tegmark and Wu/arXiv

当给AI一个数据集时,它能对这个数据集进行分析从而创建一个模型。模型的功能取决于具体的任务。例如,假如你想要训练AI对猫进行识别,那么可以给它展示数千张猫的图片,这样算法就可以从每张照片中找出相似特征,从而归纳出一个猫的模型。

AI创建模型的方式,有点像科学家通过理论,从一个现象的特定事例,类推到这一现象在类似情况下的所有事例的方法。但是,这二者之间也存在一个关键区别。

继续以识别猫为例,给AI的那些图片都是已经聚焦在猫身上的图片。而更艰难的任务是给AI提供猫在相似环境下的图片,例如在森林中。这一学习过程就有点类似于科学研究了。对于这样的数据集,AI的任务是创建一个能忽略其他无关细节(例如所有植物)而只关注猫的模型。又或者,它可能会得出一个将所有猫都描绘成是居住在森林里的模型。如果是这样的话,那么当你再给AI提供一张猫咪趴在床上睡觉的照片时,它就识别不出来了,因为它的模型出了问题。

虽然也不能说AI就完全错了,因为有很多种猫只在森林中生活,但它犯了一个错误——它创建了一个大的模型,并试图将这个模型套用在所有的数据上。一种更有成效的方法,也是科学家通常采用的方法,是创建许多适用于观测到的数据子集的小模型或理论,然后把这些小的理论加在一起,再得到一个适用于“万物”的理论。

对于研究机器学习的科学家来说,训练AI如何对数据进行分区,创建出能最终加在一起的小模型以获得更大的模型,是一项非常艰巨的挑战。Tailin Wu和Max Tegmark在arXiv上发表的论文中详细描述了他们如何运用“AI物理学家”,朝这一方向迈出了重大一步。

为了实现这一目标,Tegmark和Wu的机器学习算法具有四种策略,这四种策略也同样可被人类科学家所采用,以对复杂的观测推导理论。这几个策略分别是:

  1. 分治法:开发只能描述数据集的一小部分的理论,从而产生多种理论,不同的理论能各自描述数据的不同方面,比如物理学中的量子力学和相对论。Wu和Tegmark开发的AI物理学家,就以这样的方式处理大的数据集。

  2. 奥卡姆剃刀这是物理学家采用的另一个普遍规则,即越简单的解释越好。AI系统的一个广为人知的特点便是,它能推导出过于复杂的模型来描述用于训练它们的数据。因此,Wu和Tegmark也“教导”他们的系统,让它偏爱更简单的理论而不是复杂理论。

  3. 统一另一件物理学家爱做的事情,就是寻找能将不同理论统一在一起的方法。若能将多个理论合而为一,那是最好不过了。这促使物理学家总在试图寻求一种能支配万物的法则(尽管几乎没有实际证据表明这种理论的存在)。

  4. “终身学习”:这是帮物理学家取得成功的最后一个策略。如果一种特定的方法曾在过去奏效,那么它可能在未来的问题上也能奏效。因此,Wu和Tegmark的AI物理学家能记住曾学习过的解决方案,并尝试将它们应用在未来的问题上。

○ AI物理学家的学习架构:在中心是一个储存理论的中心。当遇到新环境时,首先就会检查这个中心,然后提出能解释部分数据的旧理论,以及能够随机初始化其他数据的新理论。所有的这些理论都通过分治法(Divide-and-conquer)训练的,成功的理论和相应的数据就会被添加到理论中心。理论中心有两种组织策略:1. 奥卡姆剃刀(Occam's Razor),以神经网络的形式将所学的理论分解成更简单的符号公式。2. 应用统一(Unification),将符号理论聚类并统一为主理论。符号理论和主理论可被重新添加到理论中心中。| 图片来源: Tegmark and Wu/arXiv

在将这些策略编码到机器学习算法中之后,Tegmark和Wu向AI展示了一系列复杂程度越来越甚的虚拟环境,这些虚拟环境由奇怪的物理定律所支配,并让AI去理解它。它的目标是尽可能准确地预测物体在二维空间的运动。这需要AI为每个“神秘环境”推导独特的物理理论,才能理解物体在该环境下的运动方式。

正如Tegmark和Wu所发现的那样,随着环境变得越来越复杂,这位AI物理学家越来越难理解物理定律。最后,这位AI物理学家总共接触了40种不同的神秘环境,并能在超过90%的情况下,推导出支配这些环境的正确物理定律。此外,Tegmark和Wu的AI物理学家能够比传统的机器学习算法减少“十亿倍”的预测误差。

这一工作或许对人类在未来从事科学研究的方式产生重大影响。特别是它或许能极其有效的应用于理解大量复杂的数据集上,比如那些用于气候或经济建模的数据集上。或许,下一位即将到来的牛顿或爱因斯坦,将只是一些计算机代码而已?

编译:二宗主

参考来源:

https://motherboard.vice.com/en_us/article/evwj9p/researchers-created-an-ai-physicist-that-can-derive-the-laws-of-physics-in-imaginary-universes

https://arxiv.org/pdf/1810.10525.pdf

https://www.technologyreview.com/s/612358/an-ai-physicist-can-derive-the-natural-laws-of-imagined-universes/

理论建模物理
1
相关数据
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

奥卡姆剃刀技术

奥卡姆剃刀,又称“奥坎的剃刀”,拉丁文为lex parsimoniae,意思是简约之法则,是由14世纪逻辑学家、圣方济各会修士奥卡姆的威廉提出的一个解决问题的法则,他在《箴言书注》2卷15题说“切勿浪费较多东西,去做‘用较少的东西,同样可以做好的事情’。

暂无评论
暂无评论~