GARY MARCUS、ERNEST DAVIS作者

AI已经破解三体问题?Gary Marcus:你们想多了

前段时间,「AI 破解三体问题」、「AI 哥白尼重新发现物理规律」的新闻充斥各大媒体的头条,感觉 AI 好像马上就要颠覆物理学了。然而事实真的是这样吗?

为了解答这个问题,人工智能领域专家 Gary Marcus 与计算机科学教授 Ernest Davis 共同发表文章,分析了最近热议的 AI 在物理领域的「跨界研究」,指出了其中的局限。

文章表示,AI 破解的所谓「三体问题」其实只是三体问题的一个特例,在一般三体问题的求解道路上都还有很长的路要走,更别说其他更复杂的四体、五体问题了。论文作者和媒体都有夸大其词的嫌疑。而所谓的「AI 哥白尼」更是一个噱头,AI 所做的工作并不是所谓的「发现」,而是一些计算工作,定义物理问题、「发现物理规律」这种事还是需要人来完成。

以下是文章内容:

AI 能否自学物理规律?深度神经网络能否迅速取代经典计算机?如果从最近的新闻头条标题来看,我们离这一天似乎已经不远了。

在最近一篇应用 AI 求解三体问题的报道中,媒体给出的标题是「用神经网络解决三体问题,速度提升 1 亿倍:机器学习为解决应用数学中的一大经典问题提供了全新的解决方法」。

上个月,一篇文章指出,神经网络能以 1 亿倍的速度解决三体问题。

在应用 AI 发现物理规律的报道中,一家媒体用到的标题是「有了机器学习,谁还需要哥白尼?」在关于此事的另一篇报道中,一位记者给出的标题是「AI 自学物理规律」,并将其描述为「AI 和物理学中值得纪念的时刻,」「可能成为解决量子力学问题的关键所在。」

人类用了几个世纪来发现「地球绕着太阳转」,而神经网络只需要几个小时就能得出结论?

在媒体的报道中,AI 已经能够自学物理学了。

但问题在于,这些作者并未给出令人信服的证据。

其实,这些说法和事实相去甚远。所有这些报道都源自最近的两项研究,它们利用机器学习来探索行星运行的不同方面。两篇论文都是在尝试有趣的创新,但二者的结果都没有那么振奋人心。

这两篇论文中夸大的观点,以及围绕它们进行的炒作,都是科学记者(有时是科学家自己)倾向于夸大 AI 和机器学习进展影响的表现。

与往常一样,在看到某个 AI 系统取得重大进展时,人们首先要问,「这个系统有什么用?」下面就来说说这两项研究。

牛顿都解决不了的三体问题,AI 能不能行?

三体问题就是预测三个物体(通常是星球)在彼此的引力作用下如何运动的问题。

如果空间中只有两个物体,那么用牛顿证明过的定律就能解释它们的运动,即它们会按照一个圆、椭圆或双曲线的轨迹运动。

但牛顿和其他科学家也证明过,如果空间中有三个或以上的物体,它们之间的相互运动就会变得异常诡异和复杂。没有一个数学公式能表示这一运动,因此在一段较长的时间里精确预测物体的运动轨迹变得非常困难。

三百年来,寻找求解三体问题的优秀计算方法一直是困扰计算物理学家的一大难题。

有关「AI 解决三体问题」的文章出自 arXiv 上一篇名为《Newton vs The Machine: Solving The Chaotic Three-Body Problem Using Deep Neural Networks》的论文。

通常来说,技术论文要比媒体文章谦逊许多。但作为一篇技术论文,这篇文章还是显得「野心勃勃」。论文的最后一部分写道,他们预测这项为一个狭窄案例开发的技术会扩展到一般三体问题,并最终用于解决四体、五体问题及其他混沌系统问题,这可能掀起一场巨大的变革。

但问题在于,作者并未给出有说服力的证据来证明这一点。其实,他们的研究甚至还没有到覆盖当下三体问题的完整范围。相反,他们只是着眼于三体问题的一个特例,即三个质量相同的粒子从特定位置开始运动,且初始速度为零。

不仅如此,他们还完全依赖于传统的物理引擎或模拟器,也就是说,没有 AI,没有机器学习,只有对运动微分方程的传统数值解法,从 10000 个不同的起始点生成运动轨迹。

接下来,他们用这个数据库作为输入来训练神经网络,然后在新的样本上测试该网络(新样本的真实解也由模拟器算出)。结果发现,该神经网络能够以合理的准确率预测粒子的位置,而且速度比传统模拟器快几个数量级。

本质上来说,他们是将神经网络作为一种新的工具,从已知的值中进行插值,而这些已知的值是利用外部经典系统算出的。与其他技术相比,神经网络可能更擅长于值的平滑空间插值问题,但大部分工作都是由外部先验系统完成的。而且,重要的是,他们没有证明同样的插值方法在其他更复杂的现实世界物理问题中同样奏效,即使在最简单的情况下的证明都没有(即改变粒子质量),更不用说大于三的多体问题了。

同时,从技术上来讲,即使对于三体问题,他们解决的这类问题也只是一个简单的子集(只有两个自由度,一般三体问题有 10 个自由度)。在他们所解决的有限问题子集中,你只能决定第三个物体相对于前两个物体的相对位置。在完整的三体问题中,你还可以选择第二和第三个物体的质量及初始速度,这些选择中的每一个都可以从根本上改变系统随时间变化的运动轨迹。

我们知道,这种问题的复杂程度会随着自由度数量的增加而呈指数级增加。因此他们所解决的问题的难度并不是一般多体问题的 1/5 那么简单。而且,随着粒子数量的增加,情况会迅速变得复杂起来:四体问题有 17 个自由度,五体问题有 24 个自由度,n 体问题 7n-11 个自由度……

其次,如果只需要考虑两个自由度,那么计算 1 万个数据点就可以很好地覆盖。就像你要绘制出山的形状,那么你只需要测出 10,000 个点的海拔高度(即 100 x 100 的网格),就可以非常可靠地估算出这两个点之间任一点的海拔。然而,随着维数(自由度)的增加,事情会变得更加复杂,平滑插值的可能性也随之降低。

第三,高度依赖初始条件,两种略微不同的初始条件都可能导致完全不同的结果。这不是你所用的算法的局限,而是这类问题的固有属性。所以声称机器学习能够预测较长时间内的混沌系统状况就好比说它已经能够预测热噪声、放射性衰变这样的随机行为,无论用哪种算法,都是做不到的。大多数媒体忽略了这一点。

一篇原载于 Popular Mechanics 的文章《Why Is the Three-Body Problem Unsolvable?》提出了这一点,当初始条件变得复杂时,结论尚有讨论的空间。

文章链接:https://www.popularmechanics.com/science/a29714375/three-body-problem-unsolvable/

最后,论文中比较的对象也有缺陷。纽约大学数学系的 Jonathan Goodman 是动力学系统的专家,他表示,现代自适应方法可以比论文中引用的时序方法更快地计算这些轨迹(所以他们应该拿自适应方法进行对比),传统的模拟器没有多大用。

那么,是否真的存在 AI 哥白尼?

哥白尼项目的情况也好不到哪儿去。

即将发表在《Physical Review Letters》上的一份研究表明,研究者构建了一种神经网络,可以将物理过程中的数据作为输入,从中提取决定性的关键参数。他们描述了四个涉及简单物理系统的实验,这些神经网络看起来效果很好。

这项「在天文学领域重新发现哥白尼系统」的研究一度使得大众媒体兴奋不已。

但问题在于,神经网络推断出「地球和火星围绕太阳运行」的说法完全是一种误导。事实上,神经网络无法理解谁是围绕谁运行的,它没有几何感知能力,也不知道旋转意味着什么。在这里,神经网络所做的就是通过计算获得两个数值参数,它并不知道这些数字代表了对固定中心点的角度。

神经网络而言,这些可能是随时间变化的质量、电荷,或者是来自两个不同中心点的角度。机器获得了数据源之间的相关性,但是却无法推断这些数据源与世界之间的关系。是人类科学家将其识别为从太阳测量的地球和火星的角度,并抽象出这样的事实:这些数值应该被解释为轨道。哥白尼发现的工作,事实上已经被事先完成了,这个系统只是一个计算器,而不是一个物理规律发现者。

此外,在作者生成的合成数据中,地球和火星在同一平面上以恒定速度绕圆形轨道运行。在实际的太阳系中,情况压根就不是这样:火星的轨道平面相对于地球的轨道(黄道)倾斜了 1.8 度。因此,火星对于固定位置恒星的运行方式不仅是一个东西向的圆,就像两个轨道共面时一样,也会以大约 4 度的角度南北偏转。经过数年观察,火星在天空中的位置并不会是简单的圆形路径,它应该存在于 4°宽度的矩形空域中。哥贝尼真正的挑战(早在现代计算机出现前就解决了,而且并没有用到大数据)要比神经网络处理的内容复杂得多。

火星角度:火星在距黄道平面最远的位置。此时,从太阳到火星的直线与黄道平面之间的夹角α= 1.8 度。当火星在此处时,地球的位置每年都在变化。Earth(1)是地球最接近火星位置的位置; 当地球在这个位置时,从地球到火星的直线与黄道之间的夹角为β= 5.5 度。Earth(2)是地球离开火星位置最远的地方; 当地球在这个位置时,从地球到火星的直线与黄道之间的夹角为γ= 1.1 度。出于展示的考虑,垂直轴已被放大。

4 度听起来微不足道,但按照天文观测的标准来说还是很大的。对比一下,猎户座的腰带只有 2.7 度宽,托勒密 Almagest 的测量结果大部分可以精确到 0.1 度以内。

因此,太阳系中的托勒密模型和哥白尼模型都必须具备解释火星及其他行星横向运动的机制。哥白尼模型因此比其他简单模型要复杂得多,它某种意义上是由神经网络生成的,在该神经网络中,地球和火星按照圆形轨道绕着太阳公转。哥白尼模型包含 48 个本轮(epicycle),这一点上它比托勒密模型要多,不过其他方面会更简单。这个网络系统甚至不参与横向运动。

由于在复制哥白尼上取得了成功,媒体们都希望这种机器学习技术可以让理论物理学开启一个新时代。Nature News 上的一篇文章甚至这样说:「一个可以自学物理学的神经网络能解决量子力学奥秘。」

这是一种幻想,因为在那个实验中,所观察到的数据和提取参数之间的关系过于简单,而在大多数量子理论的实验中,观测值与基础理论之间的关系要微妙得多,并且需要极其微妙的理论才可揭示其中规律。神经网络对于这些物理规律的探知甚至连触及问题的表面都算不上。

这些特殊研究本身倒没有很大的缺陷,但它们被报道的方式却是一个严重问题的征兆。诸如此类言过其实的报道最终导致了一些问题:最臭名昭著的文章是 Chris Anderson 在 2008 年的《理论的终结:因为数据的泛滥,科学理论已经过时》。

这种观念逐渐成为了众识的一部分———人工智能深度学习理论很快将取代其他的计算方法,即使是在那些还没搭建起完备系统知识的领域也会如此。媒体对深度学习的吹捧给大众传递了一种错误的印象,就好像无需考虑某个领域的基础知识,只依靠庞大的神经网络和数据集就能解决任何问题。

实际上,世界上的许多问题都很棘手,需要结合特定领域的大量专业知识才能解决。在这两篇论文的问题中,如果有人想解决三体问题或者类似的问题,必须花费大量时间去研究微分方程、数值计算和动力系统等领域的知识。如果是自然语言理解方面的问题,那就得好好研究语言学和心理语言学的知识,而不只是需要收集大量数据和大型计算机。

人们普遍认为,「数据+神经网络」是一个通用公式:在这个基础上,科学家选择自己的研究内容,公司和政府选择自己要资助的内容,期刊和会议选择自己要出版的内容,大学选择课堂上教什么,而学生也由此选择自己应该学习的内容。但现实情况是,从目前的水平来看,神经网络无法完全替代经过数百年发展而来的复杂科学分析工具,并且迄今也尚未复制过去的伟大科学成就,更不用说对其进行改进了。我们应该将它们视为补充现有技术的工具,而不是用它去对基础科学方法进行修订。


原文链接:http://nautil.us/issue/78/atmospheres/are-neural-networks-about-to-reinvent-physics

三体论文链接:https://arxiv.org/abs/1910.07291

AI哥白尼论文链接:https://arxiv.org/pdf/1807.10300.pdf

理论Gary Marcus三体天文物理
2
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

自然语言理解技术

自然语言理解是人工智能的核心课题之一,也被广泛认为是最困难和最具标志性的任务。最经典的两个人工智能思想实验——图灵测试和中文房间,都是围绕自然语言理解来构建的。自然语言理解在人工智能技术体系中的重要性不言而喻,它一方面承载着机器和人的交流,另一方面直达知识和逻辑。自然语言理解也是人工智能学者孜孜以求的圣杯,机器学习的巨擘 Michael I. Jordan 就曾经在 Reddit 上的 AMA(Ask Me Anything)栏目中畅想用十亿美元建立一个专门用于自然语言理解的实验室。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

数据库技术

数据库,简而言之可视为电子化的文件柜——存储电子文件的处所,用户可以对文件中的数据运行新增、截取、更新、删除等操作。 所谓“数据库”系以一定方式储存在一起、能予多个用户共享、具有尽可能小的冗余度、与应用程序彼此独立的数据集合。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

准确率技术

分类模型的正确预测所占的比例。在多类别分类中,准确率的定义为:正确的预测数/样本总数。 在二元分类中,准确率的定义为:(真正例数+真负例数)/样本总数

插值技术

数学的数值分析领域中,内插或称插值(英语:interpolation)是一种通过已知的、离散的数据点,在范围内推求新数据点的过程或方法。求解科学和工程的问题时,通常有许多数据点借由采样、实验等方法获得,这些数据可能代表了有限个数值函数,其中自变量的值。而根据这些数据,我们往往希望得到一个连续的函数(也就是曲线);或者更密集的离散方程与已知数据互相吻合,这个过程叫做拟合。

动力系统技术

动态系统(dynamical system)是数学上的一个概念。动态系统是一种固定的规则,它描述一个给定空间(如某个物理系统的状态空间)中所有点随时间的变化情况。例如描述钟摆晃动、管道中水的流动,或者湖中每年春季鱼类的数量,凡此等等的数学模型都是动态系统。 在动态系统中有所谓状态的概念,状态是一组可以被确定下来的实数。状态的微小变动对应这组实数的微小变动。这组实数也是一种流形的几何空间坐标。动态系统的演化规则是一组函数的固定规则,它描述未来状态如何依赖于当前状态的。这种规则是确定性的,即对于给定的时间间隔内,从现在的状态只能演化出一个未来的状态。 若只是在一系列不连续的时间点考察系统的状态,则这个动态系统为离散动态系统;若时间连续,就得到一个连续动态系统。如果系统以一种连续可微的方式依赖于时间,我们就称它为一个光滑动态系统。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

语言学技术

每种人类语言都是知识和能力的复合体,语言的使用者能够相互交流,表达想法,假设,情感,欲望以及所有其他需要表达的事物。语言学是对这些知识体系各方面的研究:如何构建这样的知识体系,如何获取,如何在消息的制作和理解中使用它,它是如何随时间变化的?语言学家因此关注语言本质的一些特殊问题。比如: 所有人类语言都有哪些共同属性?语言如何不同,系统的差异程度如何,我们能否在差异中找到模式?孩子如何在短时间内获得如此完整的语言知识?语言随时间变化的方式有哪些,语言变化的局限性是什么?当我们产生和理解语言时,认知过程的本质是什么?语言学研究的就是这些最本质的问题。

量子力学技术

量子力学(Quantum Mechanics),为物理学理论,是研究物质世界微观粒子运动规律的物理学分支,主要研究原子、分子、凝聚态物质,以及原子核和基本粒子的结构、性质的基础理论。

推荐文章
暂无评论
暂无评论~